Die breite Verfügbarkeit von generativen KI-Tools bringt viele Unternehmen zu Überlegungen, wie KI in ihre Fahrpläne für die digitale Transformation passt. Das rasante Entwicklungstempo bei den KI-Techniken ist allerdings für IT-Leiter eine Herausforderung aber auch Chance.
Die Beschleuniger-Serie „Instinct“ gehört zu den Komponenten im Rechner, die Anwendungen generativer Künstlicher Intelligenz ermöglichen.
(Bild: AMD)
Bei einer Befragung des Prozessorherstellers AMD von 2.500 IT-Führungskräfte in den USA, Großbritannien, Deutschland, Frankreich und Japan haben mehr als die Hälfte (52 %) angegeben, dass sie noch keine Anwendungen zur Verarbeitung natürlicher Sprache verwenden. Bei 47 Prozent kommt keine Gesichtserkennung und bei 36 Prozent keine Prozessautomatisierung zum Einsatz.
Allerdings glauben fast sieben von zehn IT-Führungskräften, dass Technologien rund um Künstliche Intelligenz die Teams effizienter machen werden. Das reicht von effizienterem Arbeiten bis hin zu automatisierten Cyber-Sicherheitsanwendungen. Tatsächlich berichten 90 Prozent von den Unternehmen, die der Einführung von KI Priorität einräumen, dass sie bereits eine höhere Effizienz am Arbeitsplatz feststellen.
52 Prozent räumen aber zugleich ein, dass ihre Unternehmen nicht über die erforderliche IT-Infrastruktur verfügen und sie sind sich unsicher, ob sie KI rechtzeitig einführen können. Zudem fehle es an Implementierungsplänen, passender Hardware und Technologie.
AMD-Technik für KI-Anwendungen
Matthew Unangst, Senior Director Commercial Client and Workstation bei AMD, kommentiert: „Als früher KI-Anwender hat man einen Vorteil. Offene Software-Ökosysteme mit Hochleistungs-Hardware sind unerlässlich. Wir glauben an einen vielschichtigen Ansatz zur Nutzung von KI-IP über unser gesamtes Produktportfolio hinweg zu Gunsten unserer Partner und Kunden.“
KI findet am Arbeitsplatz und im Rechenzentrum statt. Für den ersten Fall hat AMD in diesem Jahr die ersten Prozessoren der Ryzen-7040er-Serie auf den Markt gebracht. Einige Modelle verfügen über eine „Ryzen AI Engine“ mit Unterstützung für „Windows Studio Effects“ sowie Ryzen KI-Entwickler-Tools. Diese böten Möglichkeiten, die derzeit auf anderen x86-Prozessoren nicht verfügbar seien, so der Hersteller, und ebneten den Weg für größere KI-Funktionen direkt auf Laptops. Denn eine KI-Engine für mobile PCs sei eine Ergänzung zur Cloud-basierten KI und für die Einführung von KI-Anwendungen am Arbeitsplatz unerlässlich:
Sie ermöglicht personalisiertes und sicheres Arbeiten für Mitarbeiter durch die lokale Ausführung von KI-Modellen.
Sie verbessert die Energieeffizienz von Laptops, was zu einer höheren Produktivität und Konnektivität der Mitarbeiter führt.
Sie erhöht die gesamte Bandbreite für ein Unternehmen zur Ausführung von KI-Workloads, indem der Laptop fähig ist, Software der nächsten Generation auszuführen.
AMD-Technik für Rechenzentren
Im zweiten Fall adressiert AMD mit den Epyc-Prozessoren auch KI-Workloads in den Rechenzentren vor Ort. Durch die Aufrüstung eines Rechenzentrums auf die jüngsten Prozessoren könnten Kunden die Anzahl der benötigten Racks in ihrer bestehenden Infrastruktur um bis zu 70 Prozent reduzieren, so der Hersteller.
Für die Prozessoren, die Rechen- und Speichereffizienz bieten, die für das Training großer Sprachmodelle und die Inferenz generativer KI-Workloads erforderlich sind, sind Beschleuniger (Akzeleratoren), unerlässlich. Vor Kurzem hat AMD Details seiner Instinct MI300X bekannt gegeben.
MI300X basiert auf der AMD-CDNA-3-Architektur und unterstützt bis zu 192 Gigabyte HBM3-Speicher. Mit diesem Speicher können Kunden große Sprachmodelle wie Falcon-40 auf einen einzigen Akzelerator anpassen. Der MI300X wird ab dem 3. Quartal 2023 an wichtige Kunden ausgeliefert.
Mit Instinct
Die Instinct-Plattform von AMD vereint acht MI300X-Beschleuniger in einem branchenüblichen Design und eignet sich für KI-Inferenz und -Training. AMD Das Modell „Instinct MI300A“, der weltweit erste APU-Beschleuniger für HPC- und KI-Workloads, wird bereits jetzt an Kunden ausgeliefert.
Bei der Produktvorstellung, bei der auch die vierte Generation der Epyc-Prozessoren eine große Rolle spielte, waren AMD-Vertreter zusammen mit Führungskräften von Amazon Web Services (AWS), Citadel, Hugging Face, Meta, Microsoft Azure und Pytorch auf der Bühne, um die technischen Partnerschaften mit Branchenführern vorzustellen, die die nächste Generation von Hochleistungs-CPU- und KI-Beschleunigungssystemen auf den Markt bringen.
AMD-Vorständin und CEO Lisa Su sagte: „Wir konzentrieren uns voll und ganz darauf, den Einsatz von AMD-KI-Plattformen im Rechenzentrum zu beschleunigen, angeführt von der Einführung unserer Instinct-MI300-Beschleuniger, die für später in diesem Jahr geplant ist, und dem wachsenden Ökosystem an unternehmensfähiger KI-Software, die für unsere Hardware optimiert ist.“
Die Kundschaft
Mit 128 Zen 4c-Kernen pro Sockel bieten die Hauptprozessoren die derzeit höchste vCPU-Dichte und sowie eine beeindruckende Energie-Effizienz.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Gemeinsam mit AWS präsentierte AMD eine Vorschau auf die nächste Generation der Amazon Elastic Compute Cloud M7a-Instanzen (Amazon EC2), die mithilfe von Epyc-Prozessoren der 4. Generation umgesetzt werden. Außerhalb der Veranstaltung kündigte Oracle Pläne an, neue Oracle Computing Infrastructure E5-Instanzen mit dieser CPU-Generation, die den Code-Namen Bergamo getragen haben, zur Verfügung zu stellen.
Bei Meta unterstützen diese Prozessoren Hauptanwendungen wie Instagram und Whatsapp Unternehmensvertreter konnten Leistungssteigerungen mit AMD Epyc 97x4 Prozessoren der 4. Generation im Vergleich zur 3. Generation bei verschiedenen Arbeitslasten feststellen und gleichzeitig erhebliche TCO-Verbesserungen erzielen – eben durch die höhere Energie-Effizienz und Rechendichte.
Die Software
Doch egal, wie leistungsfähig CPUs und Beschleuniger sind, ohne Software ist das sinnlos. So hat AMD ergänzend zur Hardware mit dem „AMD ROCm“ ein Software-Ökosystem für Rechenzentrumsbeschleuniger beziehungsweise eine offene und fertige KI-Softwareplattform auf den Markt gebracht.
Vertreter der Pytorch Foundation gaben bekannt, wie sie den ROCm-Software-Stack vollständig in den Upstream zu bringen wollen und gaben die sofortige ‚Day Zero‘-Unterstützung für Pytorch 2.0 mit dem ROCm-Release 5.4.2 auf allen AMD Instinct-Beschleunigern an. Diese Integration bietet Entwicklern eine breite Palette von KI-Modellen auf Basis von Pytorch, die mit AMD-Beschleunigern kompatibel und sofort einsatzbereit sind.
Hugging Face, eine offene Plattform für KI-Entwickler, will Tausende von Hugging Face-Modellen auf AMD-Plattformen optimieren, von AMD Instinct-Beschleunigern bis hin zu AMD Ryzen- und AMD Epyc-Prozessoren, AMD Radeon-GPUs sowie Versal- und Alveo-Adaptiv-Prozessoren.
Umsatzprognose für KI-Halbleiter, weltweit
2022
2023
2024
Umsatz in Millionen Dollar
44.220
53.445
67.148
Quelle: Gartner August 2023
Doch schlägt sich das auch in den Verkaufszahlen nieder? Laut der jüngsten Prognose von Gartner werden Halbleiter, die für Anwendungen im Bereich der Künstlichen Intelligenz (KI) entwickelt wurden, im Jahr 2023 eine Umsatzchance von 53,4 Milliarden US-Dollar für die Halbleiterindustrie haben. Dies entspricht einem Anstieg 20,9 Prozent gegenüber dem Vorjahr.
Alan Priestley, Vice President beim Marktforschungs- und Beratungsunternehmen Gartner, sagt: „Die Entwicklungen im Bereich der generativen KI und die zunehmende Nutzung einer Vielzahl von KI-basierten Anwendungen in Rechenzentren, Edge-Infrastrukturen und Endgeräten erfordern den Einsatz von Hochleistungs-Grafikprozessoren (GPUs) und optimierten Halbleiterbausteinen. Dies treibt die Produktion und den Einsatz von KI-Chips voran.“
Die Gartner-Zahlen sind nicht nach Herstellern aufgeschlüsselt. Insgesamt aber wächst der Umsatz mit KI-Halbleitern wird im Prognosezeitraum zweistellig wachsen und bis 2024 um 25,6 Prozent auf 67,1 Milliarden Dollar. Bis 2027 dürfte sich der Umsatz mit KI-Chips gegenüber 2023 mehr als verdoppeln und 119,4 Milliarden Dollar erreichen.
Wer braucht die neuen Halbleiter?
Denn es sind praktisch alle Branchen betroffen. Auf dem Markt für Unterhaltungselektronik schätzen die Analysten von Gartner, dass sich der Wert von KI-fähigen Anwendungsprozessoren bis Ende 2023 auf 1,2 Milliarden Dollar belaufen wird, gegenüber 558 Millionen Dollar im Jahr 2022.
Darüber hinaus werde der Bedarf an effizienten und optimierten Designs zur Unterstützung der kosteneffektiven Ausführung von KI-basierten Arbeitslasten wird eine Zunahme des Einsatzes von kundenspezifisch entwickelten KI-Chips beziehungsweise GPUs zur Folge haben. „In vielen Unternehmen werden kundenspezifische KI-Chips in großem Umfang die derzeit vorherrschende Chip-Architektur - diskrete GPUs - für eine breite Palette von KI-basierten Arbeitslasten ersetzen, insbesondere für solche, die auf generativen KI-Techniken basieren“, so Priestley.
Generative KI treibt auch die Nachfrage nach High-Performance-Computing-Systemen für die Entwicklung und den Einsatz an, wobei viele Anbieter von Hochleistungs-GPU-basierten Systemen und Netzwerkausrüstungen in nächster Zeit erhebliche Vorteile sehen. Langfristig rechnet Gartner mit einem verstärkten Einsatz von maßgeschneiderten KI-Chips, da die Hyperscaler nach effizienten und kostengünstigen Möglichkeiten zur Bereitstellung dieser Anwendungen suchen.