Computex 2023 Nvidia: KI-Supercomputer und MGX-Server-Spezifikation

Von Klaus Länger 4 min Lesedauer

Anbieter zum Thema

Gaming-Grafikkarten spielen beim Computex-Auftritt von Nvidia nur eine Nebenrolle: CEO Jensen Huang gibt einen Ausblick auf den KI-Supercomputer DGX GH200 und stellt eine modulare Server-Architektur vor. Mit Ace kommt immerhin eine KI für NPCs in Spielen.

Der von Nvidia auf der Computex angekündigte KI-Supercomputer DGX GH200 soll für einen gehörigen Schub in der KI-Entwicklung sorgen. In ihm arbeiten 256 GH200 Superchips gemeinsam als eine superschnelle GPU. (Bild:  Nvidia)
Der von Nvidia auf der Computex angekündigte KI-Supercomputer DGX GH200 soll für einen gehörigen Schub in der KI-Entwicklung sorgen. In ihm arbeiten 256 GH200 Superchips gemeinsam als eine superschnelle GPU.
(Bild: Nvidia)

Bisher gab es nur vier Unternehmen mit einem Börsenwert von mehr als einer Billion US-Dollar: Apple, Microsoft, Alphabet und Saudi Aramco als einziges Nicht-IT-Unternehmen in diesem Kreis. Nun hat Nvidia ebenfalls die Ein-Billionen-Schallmauer durchbrochen. Den Schub dafür hat vor allem die Nachfrage nach GPUs für KI-Anwendungen gegeben. Nvidia ist klar die Nummer Eins in diesem Markt. Einen entsprechend großen Raum nahmen KI und andere Datacenter-Anwendungen in der Computex-Keynote von Nvidia-CEO Jensen Huang ein. Die Geforce-Grafikkarten, mit denen Nvidia groß geworden ist, spielten dagegen nur eine marginale Rolle.

Supercomputer für KI

Den Grace-Hopper-Superchip, der die ARM-CPU Grace und die Hopper-GPU H100 mittels Nvidias Nvlink-C2C in einem Prozessor kombiniert, stellte Huang bereits auf der letzten GTC im September 2022 vor. Die Verbindung zwischen den beiden Chips, die den Prozessor bilden, liefert laut Nvidia eine Bandbreite von bis zu 900 GB/s, das Siebenfache von PCIe Gen5 mit 16 Lanes. Grace, der CPU-Teil mit 72 Neoverse-V2-ARM-Cores, kann dabei auf bis zu 480 GB LPDDR5X zugreifen und Hopper, die H100-GPU, auf 96 GB HBM3. Inzwischen wird der GH200, so der offizielle Name des Prozessors, produziert und an eine ganze Reihe von Systemherstellern geliefert.

Nvidia selbst kündigt den KI-Supercomputer DGX GH200 an, der 256 Grace-Hopper-Superchips über ein Nvlink-Switch-System zu einem einzigen massiven Grafikprozessor verbindet, der mit insgesamt 144 TB GPU-Speicher für riesige KI-Modelle genutzt werden soll. „Generative KI, große Sprachmodelle und Empfehlungssysteme sind die digitalen Antriebe der modernen Wirtschaft”, sagt dazu Huang in seiner Computex-Keynote. „DGX-GH200-KI-Supercomputer vereinen Nvidias fortschrittlichste Technologien für beschleunigtes Rechnen und Netzwerktechnologien, um die Grenzen der KI zu erweitern.” Ein DGX GH200 liefert so eine Leistung von einem Exaflop, also 1.000 Petaflops bei Fließkommaoperationen. Zu den ersten Unternehmen, die den KI-Supercomputer einsetzen, werden Microsoft, Meta und Google gehören, verrät Huang. Zudem werde seine Firma den Hyperscalern und anderen Cloud-Service-Providern das DGX-GH200-Design als Blaupause für eigene, an ihre Infrastruktur angepasste Systeme bereitstellen. Zudem wird Nvidia mit Helios bis zum Ende des Jahres einen eigenen KI-Supercomputer bauen und betreiben, der aus vier DGX-GH200 bestehen wird, die über Nvidias Quantum-2 Infiniband verbunden werden. Mit Base Command und AI Enterprise stellt der Hersteller das passende Betriebssystem und eine Vielzahl von KI-Tools, Frameworks und trainierter Modelle ebenfalls bereit.

Bildergalerie
Bildergalerie mit 6 Bildern

MGX Server-Spezifikation

Einer der Wege, mit denen Intel seine Position als führender Prozessorhersteller erlangen konnte, war die Ausarbeitung von Spezifikationen, auf deren Basis die Computerhersteller schneller passende Rechner entwickeln und auf den Markt bringen konnten. Nvidia folgt diesem Beispiel, und stellt den Systemherstellern ebenfalls Referenzarchitekturen zur Verfügung. Mit der MGX-Spezifikation erhalten sie nun die Möglichkeit, schnell und kosteneffizient mehr als 100 Servervarianten für eine Vielzahl von KI-, High Performance Computing- und Omniverse-Anwendungen zu erstellen. Im Gegensatz zu HGX mit seinem Nvlink-Baseboard haben die Hersteller bei MGX die Möglichkeit, bestehende Designs weiter zu verwenden.

Die Spezifikation deckt vier verschiedene Chassis-Varianten mit 1U, 2U oder 4U Höhe ab, jeweils mit Luft- oder Wasserkühlung. Dazu kommen das komplette GPU-Portfolio von Nvidia in Form von PCIe-Karten sowie die eigenen Grace- und Grace-Hopper-Prozessoren sowie X86-CPUs. Für die Netzwerkanbindung sieht MGX die Verwendung von Nvidias ConnectX-7-NICs und Bluefield-3-DPUs vor. Laut dem Hersteller ist MGX dabei kompatibel zu Open Compute Project und Electronic Industries Alliance Server-Racks. Zu den Herstellern, die MGX übernehmen, zählen laut Nvidia bereits Asus, Asrock Rack, Gigabyte, Pegatron, QCT und Supermicro.

Beschleunigte Ethernet-Plattform für KI

Eine höhere Leistung und Effizienz von Ethernet-basierten KI-Clouds soll eine weitere Neuvorstellung von Nvidia bringen: die Spectrum-X Netzwerkplattform. Sie besteht aus Spectrum-4 Ethernet-Switches der SN5000-Serie mit 64 00GbE-Ports, BlueField-3 DPUs, LinkX Transceivern und Kabeln sowie der Spectrum-X-Lizenz. Die Lizenz aktiviert erst die RoCE-Erweiterungen und die optimierten Netzwerk-Parameter, die für die KI-Anwendungen benötigt werden. Die führenden Hyperscaler setzen Spectrum-X bereits ein, so Nvidia.

Nvidia ACE for Games

Eine wichtige Ankündigung zum Thema Gaming gab es auf der Computex doch noch, aber nicht für Gamer, sondern für Spiele-Entwickler und natürlich im Zusammenhang mit KI. Mit ACE for Games bietet Nvidia den Spielemachern die Omniverse Avatar Cloud Engine (ACE), mit der die NPCs (Non-playable Characters) mittels generativer KI zu einer natürlich wirkenden Konversation mit den Spielern befähigt werden. ACE for Games liefert dabei verschiedene optimierte KI-Modelle: NeMo für die Entwicklung passender Sprachmodelle, die sich an die Hintergrundstory der Charaktere anpassen lassen, Riva für die Spracherkennung und Text-to-Speech sowie Omniverse Audio2Face für die zur Sprache passenden Gesichtsanimation. Damit könnten Spiele wesentlich realistischer wirken, als wie bisher mit gescripteten Dialogen. Von einer Entwicklung wie in der Science-Fiction-Komödie Free Guy, in der die gleichnamige Titelfigur als NPC in einem Computerspiel durch KI ein eigenes Bewusstsein entwickelt, ist ACE allerdings noch Lichtjahre entfernt – und das ist vielleicht auch ganz gut so.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:49517760)