AMD und Gartner: Studien KI-Nutzung CPUs und ihre Beschleuniger für generative Künstliche Intelligenz

Von Ulrike Ostler 6 min Lesedauer

Anbieter zum Thema

Die breite Verfügbarkeit von generativen KI-Tools bringt viele Unternehmen zu Überlegungen, wie KI in ihre Fahrpläne für die digitale Transformation passt. Das rasante Entwicklungstempo bei den KI-Techniken ist allerdings für IT-Leiter eine Herausforderung aber auch Chance.

Die Beschleuniger-Serie „Instinct“ gehört zu den Komponenten im Rechner, die Anwendungen generativer Künstlicher Intelligenz ermöglichen.(Bild:  AMD)
Die Beschleuniger-Serie „Instinct“ gehört zu den Komponenten im Rechner, die Anwendungen generativer Künstlicher Intelligenz ermöglichen.
(Bild: AMD)

Bei einer Befragung des Prozessorherstellers AMD von 2.500 IT-Führungskräfte in den USA, Großbritannien, Deutschland, Frankreich und Japan haben mehr als die Hälfte (52 %) angegeben, dass sie noch keine Anwendungen zur Verarbeitung natürlicher Sprache verwenden. Bei 47 Prozent kommt keine Gesichtserkennung und bei 36 Prozent keine Prozessautomatisierung zum Einsatz.

Allerdings glauben fast sieben von zehn IT-Führungskräften, dass Technologien rund um Künstliche Intelligenz die Teams effizienter machen werden. Das reicht von effizienterem Arbeiten bis hin zu automatisierten Cyber-Sicherheitsanwendungen. Tatsächlich berichten 90 Prozent von den Unternehmen, die der Einführung von KI Priorität einräumen, dass sie bereits eine höhere Effizienz am Arbeitsplatz feststellen.

52 Prozent räumen aber zugleich ein, dass ihre Unternehmen nicht über die erforderliche IT-Infrastruktur verfügen und sie sind sich unsicher, ob sie KI rechtzeitig einführen können. Zudem fehle es an Implementierungsplänen, passender Hardware und Technologie.

AMD-Technik für KI-Anwendungen

Matthew Unangst, Senior Director Commercial Client and Workstation bei AMD, kommentiert: „Als früher KI-Anwender hat man einen Vorteil. Offene Software-Ökosysteme mit Hochleistungs-Hardware sind unerlässlich. Wir glauben an einen vielschichtigen Ansatz zur Nutzung von KI-IP über unser gesamtes Produktportfolio hinweg zu Gunsten unserer Partner und Kunden.“

KI findet am Arbeitsplatz und im Rechenzentrum statt. Für den ersten Fall hat AMD in diesem Jahr die ersten Prozessoren der Ryzen-7040er-Serie auf den Markt gebracht. Einige Modelle verfügen über eine „Ryzen AI Engine“ mit Unterstützung für „Windows Studio Effects“ sowie Ryzen KI-Entwickler-Tools. Diese böten Möglichkeiten, die derzeit auf anderen x86-Prozessoren nicht verfügbar seien, so der Hersteller, und ebneten den Weg für größere KI-Funktionen direkt auf Laptops. Denn eine KI-Engine für mobile PCs sei eine Ergänzung zur Cloud-basierten KI und für die Einführung von KI-Anwendungen am Arbeitsplatz unerlässlich:

Sie ermöglicht personalisiertes und sicheres Arbeiten für Mitarbeiter durch die lokale Ausführung von KI-Modellen.

  • Sie verbessert die Energieeffizienz von Laptops, was zu einer höheren Produktivität und Konnektivität der Mitarbeiter führt.
  • Sie erhöht die gesamte Bandbreite für ein Unternehmen zur Ausführung von KI-Workloads, indem der Laptop fähig ist, Software der nächsten Generation auszuführen.

AMD-Technik für Rechenzentren

Im zweiten Fall adressiert AMD mit den Epyc-Prozessoren auch KI-Workloads in den Rechenzentren vor Ort. Durch die Aufrüstung eines Rechenzentrums auf die jüngsten Prozessoren könnten Kunden die Anzahl der benötigten Racks in ihrer bestehenden Infrastruktur um bis zu 70 Prozent reduzieren, so der Hersteller.

Für die Prozessoren, die Rechen- und Speichereffizienz bieten, die für das Training großer Sprachmodelle und die Inferenz generativer KI-Workloads erforderlich sind, sind Beschleuniger (Akzeleratoren), unerlässlich. Vor Kurzem hat AMD Details seiner Instinct MI300X bekannt gegeben.

MI300X basiert auf der AMD-CDNA-3-Architektur und unterstützt bis zu 192 Gigabyte HBM3-Speicher. Mit diesem Speicher können Kunden große Sprachmodelle wie Falcon-40 auf einen einzigen Akzelerator anpassen. Der MI300X wird ab dem 3. Quartal 2023 an wichtige Kunden ausgeliefert.

Mit Instinct

Die Instinct-Plattform von AMD vereint acht MI300X-Beschleuniger in einem branchenüblichen Design und eignet sich für KI-Inferenz und -Training. AMD Das Modell „Instinct MI300A“, der weltweit erste APU-Beschleuniger für HPC- und KI-Workloads, wird bereits jetzt an Kunden ausgeliefert.

Bei der Produktvorstellung, bei der auch die vierte Generation der Epyc-Prozessoren eine große Rolle spielte, waren AMD-Vertreter zusammen mit Führungskräften von Amazon Web Services (AWS), Citadel, Hugging Face, Meta, Microsoft Azure und Pytorch auf der Bühne, um die technischen Partnerschaften mit Branchenführern vorzustellen, die die nächste Generation von Hochleistungs-CPU- und KI-Beschleunigungssystemen auf den Markt bringen.

AMD-Vorständin und CEO Lisa Su sagte: „Wir konzentrieren uns voll und ganz darauf, den Einsatz von AMD-KI-Plattformen im Rechenzentrum zu beschleunigen, angeführt von der Einführung unserer Instinct-MI300-Beschleuniger, die für später in diesem Jahr geplant ist, und dem wachsenden Ökosystem an unternehmensfähiger KI-Software, die für unsere Hardware optimiert ist.“

Die Kundschaft

Mit 128 Zen 4c-Kernen pro Sockel bieten die Hauptprozessoren die derzeit höchste vCPU-Dichte und sowie eine beeindruckende Energie-Effizienz.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Gemeinsam mit AWS präsentierte AMD eine Vorschau auf die nächste Generation der Amazon Elastic Compute Cloud M7a-Instanzen (Amazon EC2), die mithilfe von Epyc-Prozessoren der 4. Generation umgesetzt werden. Außerhalb der Veranstaltung kündigte Oracle Pläne an, neue Oracle Computing Infrastructure E5-Instanzen mit dieser CPU-Generation, die den Code-Namen Bergamo getragen haben, zur Verfügung zu stellen.

Bei Meta unterstützen diese Prozessoren Hauptanwendungen wie Instagram und Whatsapp Unternehmensvertreter konnten Leistungssteigerungen mit AMD Epyc 97x4 Prozessoren der 4. Generation im Vergleich zur 3. Generation bei verschiedenen Arbeitslasten feststellen und gleichzeitig erhebliche TCO-Verbesserungen erzielen – eben durch die höhere Energie-Effizienz und Rechendichte.

Die Software

Doch egal, wie leistungsfähig CPUs und Beschleuniger sind, ohne Software ist das sinnlos. So hat AMD ergänzend zur Hardware mit dem „AMD ROCm“ ein Software-Ökosystem für Rechenzentrumsbeschleuniger beziehungsweise eine offene und fertige KI-Softwareplattform auf den Markt gebracht.

Vertreter der Pytorch Foundation gaben bekannt, wie sie den ROCm-Software-Stack vollständig in den Upstream zu bringen wollen und gaben die sofortige ‚Day Zero‘-Unterstützung für Pytorch 2.0 mit dem ROCm-Release 5.4.2 auf allen AMD Instinct-Beschleunigern an. Diese Integration bietet Entwicklern eine breite Palette von KI-Modellen auf Basis von Pytorch, die mit AMD-Beschleunigern kompatibel und sofort einsatzbereit sind.

Hugging Face, eine offene Plattform für KI-Entwickler, will Tausende von Hugging Face-Modellen auf AMD-Plattformen optimieren, von AMD Instinct-Beschleunigern bis hin zu AMD Ryzen- und AMD Epyc-Prozessoren, AMD Radeon-GPUs sowie Versal- und Alveo-Adaptiv-Prozessoren.

Umsatzprognose für KI-Halbleiter, weltweit


2022

2023

2024

Umsatz in Millionen Dollar

44.220

53.445

67.148
Quelle: Gartner August 2023

Doch schlägt sich das auch in den Verkaufszahlen nieder? Laut der jüngsten Prognose von Gartner werden Halbleiter, die für Anwendungen im Bereich der Künstlichen Intelligenz (KI) entwickelt wurden, im Jahr 2023 eine Umsatzchance von 53,4 Milliarden US-Dollar für die Halbleiterindustrie haben. Dies entspricht einem Anstieg 20,9 Prozent gegenüber dem Vorjahr.

Alan Priestley, Vice President beim Marktforschungs- und Beratungsunternehmen Gartner, sagt: „Die Entwicklungen im Bereich der generativen KI und die zunehmende Nutzung einer Vielzahl von KI-basierten Anwendungen in Rechenzentren, Edge-Infrastrukturen und Endgeräten erfordern den Einsatz von Hochleistungs-Grafikprozessoren (GPUs) und optimierten Halbleiterbausteinen. Dies treibt die Produktion und den Einsatz von KI-Chips voran.“

Die Gartner-Zahlen sind nicht nach Herstellern aufgeschlüsselt. Insgesamt aber wächst der Umsatz mit KI-Halbleitern wird im Prognosezeitraum zweistellig wachsen und bis 2024 um 25,6 Prozent auf 67,1 Milliarden Dollar. Bis 2027 dürfte sich der Umsatz mit KI-Chips gegenüber 2023 mehr als verdoppeln und 119,4 Milliarden Dollar erreichen.

Wer braucht die neuen Halbleiter?

Denn es sind praktisch alle Branchen betroffen. Auf dem Markt für Unterhaltungselektronik schätzen die Analysten von Gartner, dass sich der Wert von KI-fähigen Anwendungsprozessoren bis Ende 2023 auf 1,2 Milliarden Dollar belaufen wird, gegenüber 558 Millionen Dollar im Jahr 2022.

Darüber hinaus werde der Bedarf an effizienten und optimierten Designs zur Unterstützung der kosteneffektiven Ausführung von KI-basierten Arbeitslasten wird eine Zunahme des Einsatzes von kundenspezifisch entwickelten KI-Chips beziehungsweise GPUs zur Folge haben. „In vielen Unternehmen werden kundenspezifische KI-Chips in großem Umfang die derzeit vorherrschende Chip-Architektur - diskrete GPUs - für eine breite Palette von KI-basierten Arbeitslasten ersetzen, insbesondere für solche, die auf generativen KI-Techniken basieren“, so Priestley.

Generative KI treibt auch die Nachfrage nach High-Performance-Computing-Systemen für die Entwicklung und den Einsatz an, wobei viele Anbieter von Hochleistungs-GPU-basierten Systemen und Netzwerkausrüstungen in nächster Zeit erhebliche Vorteile sehen. Langfristig rechnet Gartner mit einem verstärkten Einsatz von maßgeschneiderten KI-Chips, da die Hyperscaler nach effizienten und kostengünstigen Möglichkeiten zur Bereitstellung dieser Anwendungen suchen.

(ID:49690005)