Faktencheck im überreizten Energie-Effizienz-Diskurs Energie sparen durch bessere Auslastung?

Von Ulrike Ostler 8 min Lesedauer

Energiesparen hat in der Datacenter-Branche einen festen Platz im Pflichtenheft des Tagesgeschäfts. Nirgendwo haben die Unternehmen so viele Stellschrauben für diese Aufgabe zur Verfügung wie in ihrem eigenen Rechenzentrum.

Welche Maßnahmen bringen tatsächlich Energie-Einsparungen im Rechenzentrum? Abschalten im Idle-Mode? Höhere Auslastung der IT? Wasserkühlung? Welche Halbwahrheiten treiben Blüten, etwa zum PUE? (Bild:  Moor Studio - stock.adobe.com)
Welche Maßnahmen bringen tatsächlich Energie-Einsparungen im Rechenzentrum? Abschalten im Idle-Mode? Höhere Auslastung der IT? Wasserkühlung? Welche Halbwahrheiten treiben Blüten, etwa zum PUE?
(Bild: Moor Studio - stock.adobe.com)

Unternehmen haben viele gute Gründe für den Betrieb ihrer On-Premise-Infrastrukturen: mehr Kontrolle und technologische Souveränität, eine höhere Ausfallsicherheit, eine engere Anbindung an Datenerzeuger und -Verbraucher, günstige Latenzverhältnisse. Es wäre ein Irrtum, zu glauben, dass sie sich nur durch teure Kompromisse hinsichtlich der betrieblichen Effizienz erkaufen lassen. Ganz im Gegenteil.

Eigene Infrastrukturen schaffen größere Entscheidungsspielräume und lassen sich dadurch mit dem Bestreben nach einer höheren Energie-Effizienz viel einfacher in Einklang bringen – jedoch nur unter der Voraussetzung, dass die Verantwortlichen willens sind, diese Zielsetzung holistisch ins Auge zu fassen. Es ist nämlich offenbar an der Zeit, einige grundlegende Annahmen zu überdenken.

Mit dem PUE am Anschlag

Der Energieverbrauch der Datacenter-Branche ist in den Jahren 2010 bis 2018 dank enormen Effizienzsteigerungen im globalen Maßstab nur um 6 Prozent gewachsen, obwohl die Nachfrage nach Computing in dieser Zeit um 550 Prozent zunahm.

Das reflektierte sich im fallenden PUE. Seither ist der Fortschritt jedoch stagniert.

An allen Registern gezogen: Als die Service-Anforderungen (die roten Balken) in knapp einer Dekade explodierten, musste die Datacenter-Branche durch eine höhere Energie-Effizienz an allen Fronten des Betriebs überkompensieren. Keine andere Industrie kann sich mit vergleichbaren Erfolgen schmücken.(Bild:  Sciencemag.org)
An allen Registern gezogen: Als die Service-Anforderungen (die roten Balken) in knapp einer Dekade explodierten, musste die Datacenter-Branche durch eine höhere Energie-Effizienz an allen Fronten des Betriebs überkompensieren. Keine andere Industrie kann sich mit vergleichbaren Erfolgen schmücken.
(Bild: Sciencemag.org)

Der PUE hat sich seit dem Jahre 2014 um den aktuellen Durchschnittswert (1,57 im Jahre 2022) eingependelt, berichtet Uptime Institute in der neuesten 12. jährlichen globalen Datencenter-Umfrage. Der PUE will jetzt nicht mehr merklich nachgeben.

Die Datacenter-Branche ist mit ihren Bemühungen offenbar am Anschlag: Mit aktuellen Ansätzen ist beim PUE nicht mehr viel zu reißen.(Bild:  Uptime Institute)
Die Datacenter-Branche ist mit ihren Bemühungen offenbar am Anschlag: Mit aktuellen Ansätzen ist beim PUE nicht mehr viel zu reißen.
(Bild: Uptime Institute)

Um in Zukunft wesentliche Verbesserungen der Effizienz von Rechenzentren zu erreichen, sei „ein neuer Fokus auf die IT-Effizienz erforderlich“, zusammen mit Metriken zur Verfolgung und Berichterstattung der Fortschritte, schlussfolgern die Analysten des Uptime Institute. Muss man die Server gelegentlich auch mal abschalten?

Herauf und Herunter

Die CPUs in den Rechenzentren weltweit drehen zu 70 Prozent Däumchen; denn ihre Auslastung liegt im Durchschnitt bei nicht mehr als 30 Prozent. Google ist mit seinem Spitzenwert von 50 Prozent schon deutlich ein Ausreißer.

Der Gedanke, Server auch mal herunterzufahren, scheint verlockend. Doch Hals über Kopf ist es nicht immer zielführend. Denn die Gesamtbilanz eines solchen Abschaltvorgangs kann leicht negativ ausfallen.

Eine höhere Auslastung beginnt mit einem besseren Monitoring der Gesamtbelastung eines Systems und selbst dann ist das Abschalten von Hardware eine potenziell folgenschwere Entscheidung. Denn das Abschalten von Hardware verkürzt ihre Lebensdauer und erhöht das Risiko von Betriebsstörungen, ohne eine Garantie, dass sie unterm Strich auch wirklich Energie spart.

Kaltstart

Bei jedem Kaltstart nimmt sich ein Server erst einmal Zeit für die Systemdiagnose. Das kostet auch zusätzliche Energie. Selbst die Lüfter verbrauchen mehr Strom, wenn sie anlaufen.

Wiederholtes Aufwärmen und Abkühlen von Komponenten führt zur Materialermüdung (besonders bei Substanzen wie die thermische Paste auf der CPU oder Epoxy). Einige elektronische Bauteile wie Kondensatoren nehmen das persönlich, wenn sie sich entladen und wieder neu aufladen müssen.

Einige Organisationen – etwa Universitäten – können einen Teil ihrer Server über Nacht herunterfahren, andere übers Wochenende oder Feier- und Brückentage. Darüber hinaus lässt sich das Manöver jedoch nicht pauschal empfehlen. In den meisten Rechenzentren ist die Dauer des Leerlaufbetriebs nur schwer abzuschätzen und die Vorteile des Abschaltens für potenziell kürzere Zeitintervalle meist ungewiss, es sei denn, die Arbeitslasten sind aus geschäftlichen Gründen überflüssig geworden.

Nicht so heiß drauf

Da die Server durch wiederholtes Abschalten den Geist aufgeben, versuchen einige Rechenzentren stattdessen, weniger zu kühlen. Das verbessert sofort den PUE.

Google kann mit einem PUE von 1,10 bereits seit 2019 angeben, als die Branche im Durchschnitt bei 1,67 lag. Google „grillt“ aber seine Hardware bei 26,6 Grad. Nicht jedes Rechenzentrum kann - oder will das.

Als Intel die externe Kühlung in einem IT-Raum mit 450 Servern seinerzeit in 2008 für zehn Monate probeweise heruntergefahren hatte, stieg die Temperatur zeitweise auf 33,3 Grad. In dieser Zeit habe das Experiment gegenüber einem konventionell gekühlten Serverraum 67 Prozent Energie eingespart, führte jedoch zu einer um 2 Prozent höheren Ausfallrate der Hardware. Staub und fehlende Kontrolle der Luftfeuchtigkeit sollen dazu beigetragen haben.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Schwitzen für die IT

ASHRAE hat höheren Betriebstemperaturen bis 27 Grad bereits vor rund 14 Jahren bereitwillig den Segen erteilt. Hardwarehersteller mussten zähneknirschend ihre Garantiebereitschaft bekräftigen.

Doch nicht nur die Chips, auch die Menschen tun sich schwer bei diesen Betriebstemperaturen. 27 Grad klingt nach nicht viel, doch das ist im Kaltgang. In einem geschlossenen Warmgang müssen die Mitarbeiter schon jetzt mit einer Raumtemperatur von 40 Grad Vorlieb nehmen. Sie würden dann einer noch raueren Arbeitsumgebung ausgesetzt und sind natürlich nicht heiß drauf.

Die Menschen ziehen jetzt offenbar doch den Kürzeren.

Im vergangenen Dezember (2022) hat Equinix die Energiekrise zum Anlass genommen, um Zeichen zu setzen. Man würde demnach die Temperatur der Serverräume im Laufe der kommenden Jahre ansteigen lassen, um den Energieverbrauch zu reduzieren – Schritt für Schritt, strikt nach vordefiniertem Fahrplan. Die Initiative soll die Scope-2-Emmissionsbilanz von Equinix und die Scope-3-Emmissionsbilanz seiner Co-Location-Kunden verbessern.

Sofort ändert sich für die Kunden und die Fachkräfte erst einmal gar nichts. Equinix will für seine Rechenzentren eine mehrjährige globale Roadmap dazu erarbeiten.

Warum in aller Welt?

Professor Jon Summers, Forschungsleiter für Rechenzentren bei den Research Institutes of Sweden (RISE), hält den Ansatz mit den höheren Lufttemperaturen und die paranoide Fixierung auf den PUE-Wert als die einzige Kennzahl, für einen Irrweg. Der niedrige PUE wird durch die Verlagerung des Stromverbrauchs von der Klima-Anlage des Gebäudes auf die Racks erreicht. Doch auch im Rack entfällt ein Teil der Energie auf die Kühlung durch Ventilatoren, ohne dass es sich im PUE reflektiert.

Der Rechenzentrumsbetrieb bei höheren Temperaturen könne völlig illusorische Vorteile bringen: „Bei höheren Vorlauftemperaturen sehen wir einen höheren Gesamtenergieverbrauch, obwohl der PUE-Wert sinkt,“ warnt Professor Jon Summers.(Bild:  LTU – Technische Universität zu Luleå, Schweden)
Der Rechenzentrumsbetrieb bei höheren Temperaturen könne völlig illusorische Vorteile bringen: „Bei höheren Vorlauftemperaturen sehen wir einen höheren Gesamtenergieverbrauch, obwohl der PUE-Wert sinkt,“ warnt Professor Jon Summers.
(Bild: LTU – Technische Universität zu Luleå, Schweden)

Das Forschungsteam unter der Leitung von Professor Summers am schwedischen RISE-Forschungsinstitut hat im ICE-Rechenzentrum die Auswirkungen der Vorlauftemperatur auf die IT-Ausrüstung mit Hilfe von Windkanälen in einem vollständig luftgekühlten Rechenzentrum mit Direct-to-Chip- und Immersionskühlsystemen in Verbindung mit gut kontrollierten Flüssigkeitskühlungsprüfständen untersucht.

Das Ergebnis? Die Mikroprozessoren verbrauchen unabhängig von der Kühlmethode mehr Strom, wenn sie bei gleicher digitaler Arbeitslast heißer betrieben werden. Eine Verringerung des Energieverbrauchs der Klima-Anlage wird durch den höheren Energieverbrauch der Server ausgeglichen.

Der Effekt variiert von Prozessor zu Prozessor, so Summers. „Xeon E5-2769-v3“-CPUs verbrauchen bei 50 Prozent Auslastung 8 Watt mehr, wenn die Temperatur im Windkanal von 40 Grad auf 75 Grad erhöht wird, wenn die Serverlüfter auf eine feste CPU-Temperatur eingestellt sind.

Rebound

Das war in einer kontrollierten Umgebung, im Experimentalumfeld. Wenn die Lufteintrittstemperatur unter normalen Betriebsbedingungen in einem Rechenzentrum ansteigt, verlagert sich die Kühlarbeit von den Klima-Anlagen auf die Lüfter in den Servern, die dann mehr arbeiten müssen. Dadurch verringert sich automatisch der PUE-Wert, da sich die Lüfter in den Racks befinden. Denn der PUE-Wert ist darauf ausgelegt, den Energieverbrauch innerhalb der Racks im Vergleich zum Energieverbrauch der externen Kühlsysteme zu maximieren.

Bei der Immersionskühlung fallen die Serverlüfter weg. Summers ließ 108 der gleichen CPUs in einem Immersionstank mit der gleichen 50-prozentigen Arbeitsbelastung laufen. Als die Temperatur der Kühlflüssigkeit im Tank von 50 auf 30 Grad Celsius reduziert wurde, sank der Energiebedarf um sechs Prozent.

Tor Bjorn Minde, Direktor und Leiter des ICE-Rechenzentrums bei RISE Research Institutes of Sweden.(Bild:  RISE (www.ri.se))
Tor Bjorn Minde, Direktor und Leiter des ICE-Rechenzentrums bei RISE Research Institutes of Sweden.
(Bild: RISE (www.ri.se))

„Welche anderen Gründe würden, denn für das Anheben der Zulufttemperaturen sprechen, außer des niedrigeren ISO-PUE aufgrund der Verschiebung des Energieverbrauchs von den Datacenter-Kühlgeräten hinweg?“ fragt Summers rhetorisch. Tor Björn Minde, Direktor und Leiter des ICE-Rechenzentrums bei RISE Research Institutes of Sweden, stimmt ihm voll zu: „Warum in aller Welt sollte man das tun?“

Wärmere Betriebstemperaturen könnten höchstens dann sinnvoll sein, wenn die Außenlufttemperatur ohnehin über +30°C liegt, sagt Minde. Ansonsten sollte man die Server so kalt wie möglich halten, erst recht mit freier Kühlung. Die Leistungsaufnahme der IT ist bei niedrigen Temperaturen geringer. Die Lüfterdrehzahl wird sowohl in der Anlage als auch auf den Servern insgesamt geringer sein. Alles andere ist kontraproduktiv.

Also doch lieber Flüssigkühlung?

Was der breiteren Akzeptanz von Flüssigkühlungssystemen bisher im Wege stand, waren die lästigen Garantiebedingungen: Hersteller von Datacenter-Hardware der Enterprise-Klasse wollten sich darauf nicht einlassen. Rechenzentrumsbetreibern machte das Potenzial für verdampfende, korrodierende Kühlflüssigkeiten und das Risiko von Leckagen Sorgen.

Doch: Einst Supercomputern und Mainframes vorbehalten, ist Flüssigkühlung auf dem Vormarsch ins Rechenzentrum. Die Vorteile haben sich herumgesprochen.

Die Wartung und Instandhaltung von Flüssigkeitskühlsystemen sind jedoch nicht ohne. Sie stellt für Datacenter-Betreiber eine erhebliche Umstellung dar. Anstatt einen einzigen Servicetechniker um Unterstützung zu bitten, müssen sie sich unter Umständen an mehrere verschiedene Anbieter von Flüssigkühlungsdiensten wenden. Der Support-Workflow ist von Bezugsquelle zu Bezugsquelle schon mal wie Tag und Nach unterschiedlich.

Es sind zudem typischerweise mehrere Anbieter im Spiel: der/die Hersteller der betroffenen Serverkomponente/n (CPU/GPU, Mainboard, etc.) und der Hersteller der Flüssigkühlung. Im Garantiefall braucht man einen Sündenbock, nicht zwei oder drei. Unternehmen sollten sich in den SLAs zusichern, was genau passiert, wenn es einmal doch schiefgehen sollte.

Keine Leckagen

Mittlerweile gibt es leakage-freie Kühlkörper für Flüssigkühlung von Unternehmen wie EOS und CoolestDC, einer Spezialistin für hochleistungsfähige Wärmemanagementlösungen für die Elektronikindustrie und Rechenzentren aus Singapur. Additive Fertigung macht derart anspruchsvolle Bauteile möglich.

Bei der so genannten additiven Fertigung (Engl. Additive Manufacturing, kurz: AM) geht es im Wesentlichen um eine Methode zur Herstellung physischer Komponenten durch das „Zusammenkleben“ von Molekülen, ausgehend von einer CAD-Datei mit dem Entwurf des Wunschzustands – und ohne Werkzeuge. Im Prinzip ist hierbei von einer Art 3D-Druck mit industriellen Skaleneffekten die Rede. So entstehen scheinbar „unmögliche“ Bauteile.

Gesamtenergieverbrauch bis zu 45 Prozent weniger und bis zu 40 Prozent mehr Performance. Nicht zuletzt ein PUE-Wert < 1,06.(Bild:  CoolestDC)
Gesamtenergieverbrauch bis zu 45 Prozent weniger und bis zu 40 Prozent mehr Performance. Nicht zuletzt ein PUE-Wert < 1,06.
(Bild: CoolestDC)

Das Verfahren beschränkt sich nicht auf Kunststoff-Substrate. Firmen wie EOS, die vor allem Datencenter im Auge haben, nutzen eine Methode namens Pulverbettfusion (Engl.: “powder bed fusion”).

Die neuen Kühlkörper von EOS und CoolestDC reduzieren den Wasser- und den Gesamtenergieverbrauch um bis zu 45 Prozent. CoolestDC stellt Rechenzentren einen PUE-Wert unterhalb von 1,06 in Aussicht. Das Unternehmen bietet seinen Kunden auch umfassende Integrationsdienstleistungen an, einschließlich der Konzeption und Entwicklung von Flüssigkeits- und Zweiphasenkühlungslösungen mit schrägen Lamellen.

Flüssigkühlung ist der letzte Schrei.

  • HPE nutzt für seine Server unter anderem Tauchkühltechnologie von GCR (Green Revolution Cooling), einer Spezialistin für einphasige Flüssigkeitskühlsysteme.
  • Schneider Electric entwickelt Flüssigkeitskühlung auf Gehäuse-Ebene in Partnerschaft mit Iceotope und Avnet.
  • Rack-basierte Flüssigkeitskühlung gibt es unter anderem auch von CoolIT Systems. Das Unternehmen kooperiert auf diesem Gebiet mit Dell Technologies, HPE und Supermicro Computer.
  • Asetek bietet eine Vielzahl von Direct-to-Chip-Kühlungsprodukten in Partnerschaft mit mehreren führenden Anbietern von Hochleistungsrechnern, darunter Fujitsu und Intel.
  • Asperitas und Submer haben mehrere verschiedene Varianten der Immersionskühlung im Köcher. Diese Lösungen lassen sich einfach installieren und gelten als wartungsfreundlich.

Unterm Strich

Hardware grillen oder Abschalten, um den PUE zu senken, bringt oft nur illusorische Vorteile. Fortschritte in flüssiger Kühlung können nicht nur den PUE „auf dem Papier“ senken, sondern reduzieren auch tatsächlich den Gesamtenergieverbrauch. Leakage-freie Flüssigkühlung der neuesten Generation hält das Versprechen sogar ganz trocken ein.

* Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA).

Artikelfiles und Artikellinks

(ID:49437836)