Channel Fokus: Power & Cooling Nachhaltige Datacenter für KI

Von Klaus Länger 6 min Lesedauer

Anbieter zum Thema

Der Siegeszug der KI stellt die Betreiber von Rechenzentren vor Probleme: Die zusätzliche Infrastruktur aus GPU-Servern, Storage und schnellem Netzwerk muss mit Strom versorgt und gekühlt werden, ohne die Nachhaltigkeitsziele in Gefahr zu bringen.

Der KI-Boom stellt die Nachhaltigkeit von Rechenzentren auf die Probe. Die Lösungsanbieter wollen mit  Technologien wie Flüssigkeitskühlung, einer effizienteren Energieversorgung und einer besseren Nutzung der Abwärme gegensteuern.(Bild:  SeiryuFujin - stock.adobe.com / KI-generiert)
Der KI-Boom stellt die Nachhaltigkeit von Rechenzentren auf die Probe. Die Lösungsanbieter wollen mit Technologien wie Flüssigkeitskühlung, einer effizienteren Energieversorgung und einer besseren Nutzung der Abwärme gegensteuern.
(Bild: SeiryuFujin - stock.adobe.com / KI-generiert)

Die KI ist derzeit der große Wachstumsmarkt für die IT-Branche. Das besonders rechenintensive Training der großen Modelle für GenAI erfolgt zwar in den Cloud-Datacentern von AWS, Microsoft Azure, Google oder Meta. Aer auch in lokalen Rechenzentren wird zusätzliche Infrastruktur für KI-Anwendungen installiert. Denn etliche Unternehmen trainieren wegen Compliance- oder Datenschutzbedenken lieber ihre eigenen Modelle. Auch für das Inferencing oder für Retrieval-Augmented Generation (RAG) wird zusätzliche Hardware benötigt, wenn auch nicht in dem Ausmaß wie für das LLM-Training.

Die Analysten von Omdia gehen davon aus, dass KI-Workloads für den größten Teil des wachssenden Energieverbrauchs in Rechenzentren verantwortlich sind und dass sich der Stromhunger in den kommenden Jahren noch steigern wird.(Bild:  Vertiv)
Die Analysten von Omdia gehen davon aus, dass KI-Workloads für den größten Teil des wachssenden Energieverbrauchs in Rechenzentren verantwortlich sind und dass sich der Stromhunger in den kommenden Jahren noch steigern wird.
(Bild: Vertiv)

Christopher Parker, IT & Edge Offering Director bei Vertiv sagt dazu: „Die Rechenzentrumsbranche steht vor großen Herausforderungen: steigende Energiekosten, hohe Leistungsdichten aufgrund von KI-Workloads und zunehmender Druck zur Einhaltung von Nachhaltigkeitszielen. Die Flüssigkeitskühlung wird immer wichtiger, um KI-Chips optimal zu kühlen und einen stabilen Betrieb zu gewährleisten und gleichzeitig die Kreislaufwirtschaft zu unterstützen.“ Karin Hernik, Head of IT Channel DACH bei Schneider Electric, stimmt dieser Einschätzung zu und ergänzt: „Aufgrund der begrenzten Kühlkörpergröße, des Luftstroms im Server und der Energieeffizienz stößt Luftkühlung zunehmend an ihre Grenzen. Effizientere Lösungen wie Flüssigkeitskühlung sind erforderlich, um die steigende Leistungsdichte zu bewältigen, ohne die Energie­effizienz zu beeinträchtigen.“

Aufgrund der begrenzten Kühlkörpergröße, des Luftstroms im Server und der Energieeffizienz stößt Luftkühlung zunehmend an ihre Grenzen.

Karin Hernik

Karin Hernik, Head of IT Channel DACH bei Schneider Electric.(Bild:  Schneider Electric)
Karin Hernik, Head of IT Channel DACH bei Schneider Electric.
(Bild: Schneider Electric)

Flüssigkeitskühlung und Notstrom für KI-Systeme

Welche Anforderungen KI-Systeme an Datacenter-Infrastruktur stellen können, machen die Blackwell-GPUs von Nvidia deutlich, die in ihrer höchsten Leistungsstufe über 1.000 Watt benötigen. Schneider Electric und Vertiv haben in Zusammenarbeit mit Nvidia eigene Referenzdesigns für Rechenzentren mit flüssigkeitsgekühlten KI-Clustern entwickelt, die eine Leistung von bis zu 132 kW pro Rack unterstützen. Sie werden beispielsweise für Nvidias GB200 NVL72 oder das darauf basierende Dell-Poweredge-System XE9712 mit 72 GB200-GPUs pro Rack benötigt.

Die schnellsten KI-Server mit Nvidias Blackwell-GPU sind auf Flüssigkeitskühlung angewiesen, damit der Platzbedarf im Rahmen bleibt.(Bild:  Nvidia)
Die schnellsten KI-Server mit Nvidias Blackwell-GPU sind auf Flüssigkeitskühlung angewiesen, damit der Platzbedarf im Rahmen bleibt.
(Bild: Nvidia)

Für die Wärmeabfuhr der Blackwell-GPU-Systeme wird eine Kombination aus einer direkten Liquid-to-Chip-Kühlung und Liquid-to-Air-Wärmetauschern auf der Rückseite der Racks eingesetzt. Zudem erfordern die Lösungen leistungsfähige Cooling Distrubution Units sowie eine entsprechend ausgelegte redundante Strom- und Notstromversorgung. Schneider Electric hat dafür die kompakte Galaxy VXL mit einer Leistung von 1,25 MW entwickelt. Sie benötigt nur den halben Platz bisheriger Lösungen. Die USV ist zu Lithium-Ionen oder zu ventilgeregelten Blei-Säure-Akkus (VRLA) kompatibel. Im eConversion-Modus soll sie eine Effizienz von bis zu 99 Prozent erreichen und im Double-Conversion-Modus immerhin noch 97,5 Prozent.

Mit dem USV-System PowerUPS 9000 bringt Vertiv ebenfalls eine kompakte Lösung mit hoher Leistungsdichte und kompakter Grundfläche auf den Markt, die mit einer Leistung von bis zu 1,25 MW erhältlich ist. Die USV unterstützt neben Lithium-Ionen und VRLA- auch Nickel-Zink-Akkus. Vertiv Next Predict ermöglicht dank KI- und Machine Learning-Algorithmen eine präventive Wartungsstrategie.

Bildergalerie

Effizientere Datacenter durch Wasserkühlung

Flüssigkühlungen gewinnen auch bei anderen Systemen an Bedeutung. Denn nicht nur die GPUs benötigen mehr Strom und damit eine leistungsstarke Kühlung, sondern auch neue Server-CPUs wie Intel Core 6 oder AMD Epyc Turin. Mit Wasser statt Luft als Kühlmittel können mehr Systeme in einem Rack untergebracht werden, was eine höhere Rechenleistung auf demselben Raum ermöglicht.

Dell setzt für Poweredge-System XE9712 ein 21-Zoll-Rack der Serie Integrated Rack 7000 (IR7000) ein. Es folgt dem aktuellen OCP-Standard und ist sowohl für die Flüssigkeitskühlung als auch für ein skalierbares Energiemanagement vorbereitet. Mit Poweredge M7725 bietet der Hersteller für das Rack zudem einen flüssigkeitsgekühlten Server mit zwei Epyc-Prozessoren an, mit dem sich hochdichte Lösungen mit bis zu 72 Nodes pro Rack für das Datacenter realisieren lassen.

Lenovo hat das das flüssigkeitsgekühlte Thinksystem SC750 V4 Neptune vorgestellt, bei dem die Kühlung den Einsatz von zwei Intel-Core-6-Prozessoren mit jeweils 500 Watt TDP auf engstem Raum erlaubt. Bis zu acht vertikal montierte Nodes können so in einem 13U-Chassis für 19-Zoll-Racks untergebracht werden. Dabei wird „98 Prozent der Wärme aus dem System abgeführt und nur 2 Prozent verbleiben im System“, erklärt Dieter Stehle, Deutschlandchef der ISG bei Lenovo.

Unsere Flüssigkeitskühlsysteme unterstützen die Wiederverwendung von Abwärme, um den CO2-Fußabdruck von Rechenzentren zu reduzieren.

Katja Neumann

Die Wasserkühlung wird mit einer Eingangstemperatur von bis zu 45 Grad betrieben, sodass die Wärmeabfuhr selbst im Sommer ohne aktive Kühlung möglich ist. Im Winter könnte das auf 55 Grad erwärmte Kühlwasser für Gebäudeheizungen genutzt werden. Wie Katja Neumann, Channel Sales Director Western Europe bei Vertiv, betont, optimieren die Flüssigkeitskühlsysteme ihrer Firma die thermische Effizienz durch eine präzise Steuerung der Ein- und Auslasstemperatur. „Diese Systeme unterstützen auch die Wiederverwendung von Abwärme, um den CO2-Fußabdruck von Rechenzentren zu reduzieren“, so die Vertiv-Channel-­Chefin. Wie Parker betont, müssen Rechenzentren bis 2030 eine Energieeinsparung von 11,7 Prozent erreichen, um die Anforderungen der europäischen Energieeffizienzricht­linie (EED) zu erfüllen.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Katja Neumann, Channel Sales Director Western Europe bei Vertiv.(Bild:  Hannes Magerstaedt)
Katja Neumann, Channel Sales Director Western Europe bei Vertiv.
(Bild: Hannes Magerstaedt)

In Deutschland definiert das Energieeffizienzgesetz strenge PUE-Ziele (Power Usage Effectiveness) von 1,5 bis 2027 und 1,3 bis 2030. Um das zu erreichen, müssen Hersteller und Channel ihren Kunden passende Lösungen anbieten. Laut Hernik führt der Weg zu mehr Nachhaltigkeit über die Analyse, um „etwa den Footprint eines Datacenters über den gesamten Lebenszyklus schätzen zu können.“ Mit diesem Wissen könne der Partner Lösungen anbieten, mit der Rechenzentren so nachhaltig wie möglich werden.

Auch Vertiv unterstütze den Channel dabei, „Unternehmenskunden bei der Implementierung neuer energieeffizienter und intelligenter Anwendungen zu helfen, die den Stromverbrauch und den CO2-Ausstoß minimieren“, betont Neumann. Dafür liefere der Hersteller anpassbare Referenzdesigns und eine umfassende Beratung.

Absicherung von Edge-Infrastrukturen

Andreas Bichlmeir, Vorstand von Online USV-Systeme.(Bild:  Gudrun Kaiser)
Andreas Bichlmeir, Vorstand von Online USV-Systeme.
(Bild: Gudrun Kaiser)

Durch KI beobachten wir einen Trend hin zu verteilten Edge-Umgebungen und kleineren Rechenzentren. Die geografische Verteilung erfordert an jedem Netzwerkrand eine schnelle und zuverlässige Reaktion bei Stromausfällen.

Andreas Bichlmeir

Energieeffizienz ist auch bei USVs ein großes Thema. Andreas Bichlmeir, Vorstand bei Online USV-Systeme, sagt dazu: „Unser Technikteam hat verschiedene Berechnungen durchgeführt und für die Partner einen Leitfaden erstellt, wie sich im USV-Umfeld messbar Energie und Betriebskosten einsparen lassen.“ Laut Bichlmeir werde KI zudem vermehrt an Edge-Standorten eingesetzt. Hier kommen dann oft kleinere USV-Systeme wie die Zinto 800 mit Batterieeweiterungen zum Einsatz, die ganze Tage überbrücken können. Wie Bichlmeir betont, gibt es bei Edge-Umgebungen meist keine Notstromaggregate wie in Rechenzentren, die dort in relativ kurzer Zeit die Stromversorgung übernehmen, währen die USVs nur den Übergang puffern oder die Zeit für ein kontrolliertes Herunterfahren nicht unbedingt benötigter Systeme. Zudem müssen am Netzwerkrand nicht nur die Rechner, sondern auch die gesamte Netzwerkinfratruktur mit Batteriestrom versorgt werden.

KI-Rechenzentren müssen sparsamer werden

Der Einsatz von Künstlicher Intelligenz kann vielen Branchen und Verbrauchern das Leben erleichtern. Aber sie hat auch ihren Preis durch den enormen Energieverbrauch speziell beim Training sehr großer Sprachmodelle. Aber KI-Forscher und -Entwickler können durch neue Verfahren den Aufwand verringern. Das chinesische Unternehmen DeepSeek scheint hier die Richtung vorzugeben. Aber letztlich müssen sich die Unternehmen fragen, ob aufwendige GenAI-Anwendungen wirklich nötig sind oder es auch einfacher und energiesparender geht.

Zudem müssen Rechenzentren selbst nachhaltiger werden. Hier ist die Flüssigkeitskühlung ein guter Weg und auch die permanente Optimierung der Kühlung und Stromversorgung. Soll Abwärme für die Heizung von Wohn- und Geschäftsgebäuden genutzt werden, sind allerdings auch die Kommunen gefragt. Denn ohne eine geeignete Nah- oder Fernwärme-Infrastruktur funktioniert es nicht.

Rechenzentren wie dieses von Google im niederländischen Eemshaven werden zunehmend durch Wind und Sonne mit Energie versorgt. Anders sind Effizienzziele nicht erreichbar(Bild:  Sepia100 - stock.adobe.com)
Rechenzentren wie dieses von Google im niederländischen Eemshaven werden zunehmend durch Wind und Sonne mit Energie versorgt. Anders sind Effizienzziele nicht erreichbar
(Bild: Sepia100 - stock.adobe.com)

(ID:50282316)