14.05.2026
Wie Vertiv und CoreWeave gemeinsam KI-Innovation vorantreiben
Mit steigenden Leistungsdichten und immer komplexeren KI-Workloads wird die enge Abstimmung von Compute, Stromversorgung und Kühlung zum entscheidenden Erfolgsfaktor. Vertiv und CoreWeave zeigen, wie integrierte Infrastrukturkonzepte und partnerschaftliche Zusammenarbeit den Weg für skalierbare, leistungsstarke KI-Umgebungen ebnen.
CoreWeave und seine Partner haben die weltweit erste Cloud-Implementierung von NVIDIAs GB300 NVL72-System realisiert – und damit schnelleres Training, geringere Latenzen und eine effizientere Infrastruktur für Echtzeit-KI ermöglicht.
Ein renommiertes Orchester ist nicht bloß eine Ansammlung exzellenter Musiker. Es ist eine Einheit, in der jedes Instrument und jede Sektion – Blechbläser, Streicher, Schlagwerk – präzise aufeinander abgestimmt sind, um eine makellose Performance zu liefern.
Für KI-Infrastrukturen gelten dieselben Prinzipien. Leistungsfähigkeit in mission-kritischen KI-Umgebungen entsteht nicht allein durch zusätzliche GPUs. Entscheidend ist die enge Abstimmung von Compute, Stromversorgung, Kühlung und Netzwerk – als integriertes Gesamtsystem.
Genau diesen Ansatz verfolgen Vertiv, CoreWeave und ihre Partner mit dem NVIDIA GB300 NVL72-System. Es handelt sich nicht um ein Konzept oder eine einmalige Sonderlösung, sondern um eine einheitliche, skalierbare Infrastruktur für KI im großen Maßstab.
Ein neuer Maßstab für KI-Infrastruktur
CoreWeave, AI-Hyperscaler für GPU- und Cloud-Computing, realisiert die erste Implementierung des NVIDIA GB300 NVL72 in Dells integriertem Racksystem.
CoreWeave gehört seit Jahren zu den Vorreitern im Bereich KI-Cloud-Infrastruktur und hat zuvor bereits NVIDIA HGX H100- und H200-Plattformen implementiert. Die Einführung des NVIDIA GB300 NVL72 setzt diese Entwicklung fort.
Die Leistungssteigerungen sind signifikant:
Bis zu 50-fache Steigerung der Inferenzleistung für Reasoning-Workloads gegenüber Hopper
10-fache Verbesserung der Nutzerreaktionszeit
5-fach höherer Durchsatz pro Watt
1,5-fache FP4-(4-Bit-Floating-Point)-Performance gegenüber Blackwell
1,5-facher Speicherausbau auf bis zu 21 TB GPU-Speicher pro Rack gegenüber Blackwell
Doppelte NVIDIA Quantum InfiniBand-Bandbreite pro GPU im Vergleich zur Vorgängergeneration
Infrastruktur, die mit dem Silizium skaliert
Um Systeme in dieser Größenordnung zu betreiben, müssen Kühlung und Stromversorgung ebenso präzise konzipiert sein wie die Compute-Plattform selbst.
Ein vollständig ausgelastetes NVIDIA GB300 NVL72-Rack benötigt rund 140 kW Leistungsaufnahme und wird flüssigkeitsgekühlt. Hier kommt Vertiv ins Spiel.
Die Vertiv™ CoolChip Cooling Distribution Units (CDUs) sind speziell für diese Anforderungen ausgelegt und bieten:
121 kW Flüssig-zu-Flüssig-Wärmeabfuhr, optimiert für das NVIDIA GB300 NVL72-Gehäuse
Kompatibilität mit ASHRAE-W5-Vorlauftemperaturen
Redundante Pumpen und doppelte Wärmetauscher zur Erhöhung der Ausfallsicherheit
Automatisierte Kreislaufregelung für stabilen Dauerbetrieb
Darüber hinaus unterstützt Vertiv die Implementierung durch zusätzliche Services:
CFD-Modellierung (Computational Fluid Dynamics) und thermische Simulation zur Optimierung der Luftführung und Vermeidung später Designanpassungen
White-Space- und Integrationsplanung zur Abstimmung von Kühlung, Stromversorgung und Kreislaufregelung auf das Rack-Layout
Echtzeit-Monitoring und Loop-Control zur Stabilisierung der Performance bei dynamischen GPU-Lasten
Referenzdesigns und SimReady-Assets für NVIDIA GB200- und GB300-Systeme zur digitalen Validierung vor der physischen Umsetzung
KI mit hoher Geschwindigkeit realisieren – gemeinsam
Die Bereitstellung von KI-Infrastruktur der nächsten Generation hängt nicht nur von der Hardware im Rack ab. Entscheidend ist die Geschwindigkeit vom Design bis zur Inbetriebnahme – und wie eng die Partner entlang dieses Prozesses zusammenarbeiten.
Der Rollout des NVIDIA GB300 NVL72 durch CoreWeave verdeutlicht diesen Ansatz: eine koordinierte Zusammenarbeit zur Inbetriebnahme einer Rack-basierten KI-Plattform für rund 140 kW Last, flüssigkeitsgekühlt, ausgelegt für hochverdichtete, dauerhaft aktive Inferenz-Workloads.
CoreWeave beschreibt es mit einer sportlichen Analogie:
„Die Zukunft der KI-Infrastruktur zu gestalten ist Teamsport. Unsere gemeinsame Zusammenarbeit mit Dell, Switch und Vertiv bei der Implementierung des NVIDIA GB300 NVL72 ist entscheidend für unsere Geschwindigkeit und Agilität. Sie liefert die notwendige Unterstützung, um bahnbrechende Technologie in Rekordzeit für unsere Kunden Realität werden zu lassen.“
Vertiv unterstützte die Implementierung mit vorvalidierten Flüssigkeitskühlsystemen und Engineering-Expertise – und stellte so sicher, dass CoreWeave und Dell die Infrastruktur in hoher Geschwindigkeit ausrollen konnten.
Wohin sich Infrastruktur entwickelt
Die Implementierung des NVIDIA GB300 NVL72 durch CoreWeave und Dell mit Unterstützung von Vertiv markiert einen Wendepunkt in der Entwicklung und Bereitstellung von KI-Infrastruktur.
Angesichts der rasanten Dynamik im KI-Bereich wäre vielleicht elektronische Musik ein treffenderer Vergleich als klassische Sinfonie. Doch unabhängig von der Analogie bleibt eines klar: Erfolgreiche KI-Infrastruktur entsteht nicht durch Einzelakteure, sondern durch ein abgestimmtes Zusammenspiel.
Echte Integration, enge Kooperation und gemeinsame Entwicklung sind die Grundlage für eine leistungsfähige „Symphonie“ im KI-Zeitalter.