Technologie führt zu zahlreichen Herausforderungen Wie generative KI die Grenzen der Rechenzentrumsinfrastruktur aufzeigt

Ein Gastbeitrag von Paul Höcherl, Product Manager ISG von Lenovo 4 min Lesedauer

Anbieter zum Thema

Generative KI hat das Potenzial, technologischen Fortschritt erheblich zu beschleunigen und stellt Rechenzentren vor immense Herausforderungen: Der rasant steigende Energiebedarf und die damit verbundene Abwärmeproduktion machen effiziente und nachhaltige Kühlmethoden unerlässlich.

Generative KI bringt auch moderne Rechenzentren mitunter ins Schwitzen. (Bild:  Pete Linforth /  Pixabay)
Generative KI bringt auch moderne Rechenzentren mitunter ins Schwitzen.
(Bild: Pete Linforth / Pixabay)

Laut Forschungsberichten verdoppelt sich der Energiebedarf für generative KI derzeit alle 100 Tage. Rechenzentren weltweit verbrauchen bis zu zwei Prozent des globalen Stroms – eine Zahl, die laut der Internationalen Energieagentur weiter steigen wird. Angesichts wachsender Leistungsanforderungen lastet zunehmender Druck auf Rechenzentrumsbetreibern, innovative Kühlmethoden für die leistungsintensiven Grafikprozessoren (GPUs) zu etablieren.

Die für KI nötigen Grafikprozessoren verbrauchen bis zu zehnmal mehr Energie als zentrale Prozessoreinheiten (CPUs). Dies ist auf die höhere Zahl an Transistoren und deren dichte Anordnung zurückzuführen, wodurch nicht nur der Energieverbrauch, sondern auch die Wärmeerzeugung der Rechenzentren steigt. Auch neue Technologien, wie zum Beispiel das Stapeln von Silizium, verstärken die Energiedichte, was höhere Kühlkapazitäten erfordert.

Hinzu kommt ein sinkender Temperaturtoleranzwert (TCase) der Chips, also der maximal zulässigen Oberflächentemperatur. Während ältere Chips noch Temperaturen von bis zu 100 Grad Celsius verkrafteten, sinkt der TCase-Wert bei neueren Modellen auf unter 80 Grad Celsius, was die Kühlung zusätzlich fordert. Für KI-Anwendungen reicht herkömmliche Luftkühlung daher längst nicht mehr aus. Die hohen Rechenleistungen und die zunehmende Komponentendichte machen eine effizientere Kühltechnologie notwendig – flüssigkeitsbasierte Kühlung wird hier zur Schlüsseltechnologie.

Flüssigkühlung als Schlüsseltechnologie

Um den Energiebedarf im High-Performance-Computing (HPC) effizient zu decken, wird Flüssigkühlung immer häufiger eingesetzt: Bereits über 50 Prozent der großen HPC-Installationen setzen auf diese Technologie. Auch im kommerziellen Bereich und bei Hyperscalern nimmt der Einsatz zu, bleibt jedoch noch hinter HPC-Anwendungen zurück. Als besonders gefragt gilt die sogenannte „Direct-to-Chip“-Kühlung, bei der die Kühlung direkt an den Chips ansetzt, wo die Hitze entsteht. Diese Methode reduziert die Wärmeproduktion im Vergleich zu luftgekühlten Systemen erheblich. Große Chiphersteller haben bereits angekündigt, dass zukünftige GPU-Generationen eine Wasserkühlung erfordern werden, um modernen Anforderungen gerecht zu werden. Diese Entwicklung unterstreicht den wachsenden Stellenwert der Flüssigkühlung für die KI- und HPC-Infrastruktur.

Ein praktisches Beispiel verdeutlicht die Vorteile: Bei einer Installation mit fünf Racks à 72 Servern (1 kW pro Server) ergibt sich bei einem Strompreis von 25 Cent/kWh eine mögliche Einsparung von bis zu 40 Prozent. Diese Vorteile spiegeln sich im Power Usage Effectiveness (PUE) wider – einem zentralen Maß für die Energieeffizienz von Rechenzentren. Der PUE-Wert gibt das Verhältnis der gesamten verbrauchten Energie zur tatsächlich für die IT genutzten Energie an. Ein idealer PUE von 1,0 bedeutet, dass keinerlei zusätzliche Energie für Kühlung und Infrastruktur aufgewendet wird – in der Praxis ein nicht erreichbarer Wert. Luftgekühlte Systeme erreichen meist PUE-Werte von 1,3 bis 1,4, während gut konfigurierte Flüssigkühlungssysteme Werte von bis zu 1,1 oder sogar 1,04 erzielen, was nur 4 bis 10 Prozent zusätzlichen Energieaufwand für Kühlung bedeutet.

Ein weiterer Effizienzschritt ist die Warmwasserkühlung, die statt kaltem etwa 40 Grad Celsius warmes Wasser einsetzt. Dadurch entfällt die energieintensive Kaltwassererzeugung vollständig, was den Energieverbrauch um 30 bis 40 Prozent senkt. Die stabilen Temperaturbereiche verbessern zudem die Zuverlässigkeit der Systeme, da sie Temperaturschwankungen und damit potenziellen Hardware-Ausfällen vorbeugen.

Technisch erfolgt die Warmwasserkühlung ebenfalls über Direct-to-Chip-Kühlplatten, die das Wasser gezielt an Prozessoren und GPUs leiten und die Abwärme effizient abführen. Diese Wärme lässt sich zusätzlich in städtische Fernwärmenetze einspeisen oder zur Gebäudeheizung nutzen. Für Rechenzentren mit KI- und HPC-Anwendungen ist dieser Ansatz besonders kosteneffizient und nachhaltig – er entlastet die Infrastruktur und senkt langfristig die Betriebskosten.

Hybride Kühlmethoden und spezifische Einsatzszenarien

In der Übergangsphase zur umfassenden Flüssigkühlung setzen einige Rechenzentren auf hybride Kühlmethoden, die Luft- und Flüssigkühlung kombinieren. Diese Lösung ist besonders für Betreiber geeignet, die ihre Infrastruktur schrittweise umstellen. Hybride Systeme ermöglichen eine höhere Effizienz, indem Flüssigkühleinheiten die Hauptlast der Wärmeabfuhr an besonders hitzeintensiven Komponenten wie GPUs übernehmen, während die Restwärme über Luftkühlung abgeführt wird. Diese Methode bietet eine flexible und kostengünstige Möglichkeit, die Effizienz zu steigern und die Abwärme zu reduzieren.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Nachhaltigkeit, regulatorische Anforderungen und Wirtschaftlichkeit

Da Energieeffizienz und CO₂-Reduktion zunehmend in den Fokus geraten, wächst auch der Druck auf Rechenzentren, nachhaltig zu arbeiten. Neue regulatorische Anforderungen wie das Energieeffizienzgesetz verpflichten Betreiber, ihren Stromverbrauch zu reduzieren und auf umweltfreundliche Technologien umzusteigen. In den kommenden zehn Jahren wird Flüssigkühlung voraussichtlich zum Standard für KI- und HPC-Anwendungen werden. Für normale Enterprise-Server bleibt der Einsatz abhängig von regionalen Stromkosten, CO₂-Auflagen und regulatorischen Rahmenbedingungen. Die Flexibilität der Flüssigkühlung, sowohl GPUs als auch CPUs direkt zu kühlen, und die Möglichkeit, die entstehende Abwärme nutzbar zu machen, unterstützen diesen Trend.

Einige Rechenzentren nutzen die durch Flüssigkühlung entstehende Abwärme für Fernwärmesysteme oder zur Gebäudeheizung. Diese Form der Kreislaufwirtschaft kann den ökologischen Fußabdruck erheblich verringern und zusätzliche Einnahmen schaffen.

Paul Höcherl, Product Manager ISG von Lenovo(Bild:  Lenovo)
Paul Höcherl, Product Manager ISG von Lenovo
(Bild: Lenovo)

Die Umstellung auf Flüssigkühlung erfordert zwar höhere Anfangsinvestitionen, doch diese amortisieren sich langfristig durch deutliche Einsparungen bei den Betriebskosten. Dank höherer Effizienz und geringerer Energiekosten kann Flüssigkühlung die Gesamtkosten eines Rechenzentrums (TCO) signifikant senken. Eine Kosten-Nutzen-Analyse zeigt, dass größere Installationen durch die geringeren Kühlkosten eine rasche Amortisation der Investitionskosten ermöglichen.

Die Preise für Flüssigkühltechnologie sinken zudem durch steigende Nachfrage und technologischen Fortschritt kontinuierlich. Auch die Möglichkeit, Abwärme als Energiequelle zu nutzen, bietet wirtschaftliche Vorteile. Je stärker die Nachfrage nach Flüssigkühlung wächst, desto weiter dürften die Preise sinken – was die Implementierung in breiteren Marktschichten erleichtern und vorantreiben wird.

(ID:50240395)