Nachhaltige KISchädlichen Umweltauswirkungen generativer KI entgegenwirken
Von
Adam Zewe, MIT News
9 min Lesedauer
Jede Anfrage an generative KI zieht Auswirkungen auf die Umwelt nach sich. Forscher des MIT haben untersucht, wie diesen Herausforderungen möglichst nachhaltig begegnet werden könnte, um CO₂-Fußabdruck und stetig steigenden Energiebedarf zu kontrollieren.
„Wir befinden uns auf einem Weg, auf dem die Auswirkungen des Klimawandels erst dann vollständig bekannt sein werden, wenn es zu spät ist, um noch etwas dagegen zu unternehmen,“ sagt Jennifer Turliuk MBA '25, Kurzzeitdozentin am MIT, ehemalige Sloan Fellow und ehemalige Praxisleiterin für Klima- und Energie-KI am Martin Trust Center for MIT Entrepreneurship. Daher sei es gerade jetzt eine einmalige Gelegenheit, im Bezug auf die Entwicklung neuer KI-Systeme innovativ zu sein und diese weniger kohlenstoffintensiv zu gestalten.
Der Energiebedarf generativer KI wird in den nächsten zehn Jahren voraussichtlich weiter dramatisch steigen. So prognostiziert beispielsweise ein Bericht der Internationalen Energieagentur vom April 2025, dass sich der weltweite Strombedarf von Rechenzentren, in denen die Recheninfrastruktur zum Trainieren und Einsetzen von KI-Modellen untergebracht ist, bis 2030 auf rund 945 Terawattstunden mehr als verdoppeln wird. Zwar sind nicht alle in einem Rechenzentrum durchgeführten Vorgänge KI-bezogen, doch entspricht diese Gesamtmenge etwas mehr als dem Energieverbrauch Japans.
Darüber hinaus prognostiziert eine Analyse von Goldman Sachs Research vom August 2025, dass etwa 60 Prozent des steigenden Strombedarfs von Rechenzentren durch die Verbrennung fossiler Brennstoffe gedeckt werden, wodurch die globalen CO₂-Emissionen um etwa 220 Millionen Tonnen steigen würden. Zum Vergleich: Wenn man mit einem benzinbetriebenen Auto 5.000 Meilen fährt, entstehen etwa 1 Tonne Kohlendioxid.
Diese Statistiken sind erschreckend. Gleichzeitig untersuchen Wissenschaftler und Ingenieure am MIT und auf der ganzen Welt Innovationen und Maßnahmen, um den rasant steigenden CO₂-Fußabdruck der KI zu verringern. Die möglichen Ansätze reichen dabei von der Steigerung der Effizienz von Algorithmen bis hin zur Neugestaltung von Rechenzentren.
Berücksichtigung von Kohlenstoff-Emissionen
Ein Großteil der Debatte um die notwendige Reduzierung des CO₂-Fußabdrucks generativer KI konzentriert sich in der Regel auf den „operativen CO₂-Ausstoß“ – die Emissionen, die durch die leistungsstarken Prozessoren, sogenannte GPUs, in einem Rechenzentrum verursacht werden. Dabei wird oft der „verkörperte CO₂-Ausstoß“ außer Acht gelassen, also die Emissionen, die durch den Bau des Rechenzentrums selbst entstehen, sagt Vijay Gadepally, leitender Wissenschaftler am MIT Lincoln Laboratory, der Forschungsprojekte im Supercomputing Center des Lincoln Laboratory leitet.
Der Bau und die Nachrüstung eines Rechenzentrums, das aus Tonnen von Stahl und Beton besteht und mit Klimaanlagen, Computerhardware und kilometerlangen Kabeln ausgestattet ist, verbraucht enorme Mengen an Kohlenstoff. Tatsächlich sind die Umweltauswirkungen des Baus von Rechenzentren ein Grund dafür, dass Unternehmen wie Meta und Google nach nachhaltigeren Baumaterialien suchen. (Ein weiterer Faktor sind die Kosten.)
Außerdem sind Rechenzentren riesige Gebäude – das weltweit größte, der China Telecomm-Inner Mongolia Information Park, umfasst etwa 920.000 Quadratmeter (10 Millionen Quadratfuß) – mit einer etwa 10- bis 50-mal höheren Energiedichte als ein normales Bürogebäude, fügt Gadepally hinzu.
„Der Betrieb ist nur ein Teil des Problems. Einige Maßnahmen, die wir zur Reduzierung der Betriebsemissionen ergreifen, können auch zur Reduzierung des CO₂-Ausstoßes beitragen, aber in diesem Bereich müssen wir in Zukunft noch mehr tun“, sagt er.
Verringerung der operativen Emissionen
Wenn es darum geht, die betrieblichen CO₂-Emissionen von KI-Rechenzentren zu reduzieren, gibt es viele Parallelen zu Energiesparmaßnahmen im Haushalt. Zum einen können wir einfach das Licht ausschalten: „Selbst wenn Sie aus Sicht der Energieeffizienz die schlechtesten Glühbirnen in Ihrem Haus haben, verbrauchen Sie immer weniger Energie, wenn Sie sie ausschalten oder dimmen, als wenn Sie sie mit voller Leistung laufen lassen“, sagt Gadepally.
In ähnlicher Weise hat eine Untersuchung des Supercomputing Center gezeigt, dass das „Herunterfahren“ der GPUs in einem Rechenzentrum, sodass sie nur noch etwa drei Zehntel der Energie verbrauchen, nur minimale Auswirkungen auf die Leistung von KI-Modellen hat, während gleichzeitig die Kühlung der Hardware vereinfacht wird.
Eine weitere Strategie besteht darin, weniger energieintensive Computerhardware zu verwenden. Anspruchsvolle generative KI-Workloads, wie das Training neuer Schlussfolgerungsmodelle wie GPT-5, erfordern in der Regel den gleichzeitigen Einsatz vieler GPUs. Die Analyse von Goldman Sachs schätzt, dass ein hochmodernes System bald bis zu 576 verbundene GPUs gleichzeitig betreiben könnte.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ingenieure können jedoch manchmal ähnliche Ergebnisse erzielen, indem sie die Präzision der Rechenhardware reduzieren, beispielsweise durch den Wechsel zu weniger leistungsstarken Prozessoren, die auf die Verarbeitung einer bestimmten KI-Workload abgestimmt sind.
Es gibt auch Maßnahmen, die die Effizienz des Trainings energieintensiver Deep-Learning-Modelle vor deren Einsatz steigern. Gadepallys Gruppe fand heraus, dass etwa die Hälfte des Stroms, der für das Training eines KI-Modells verbraucht wird, dafür aufgewendet wird, die letzten 2 oder 3 Prozentpunkte an Genauigkeit zu erreichen. Durch ein vorzeitiges Beenden des Trainingsprozesses kann ein Großteil dieser Energie eingespart werden.
„Es kann Fälle geben, in denen eine Genauigkeit von 70 Prozent für eine bestimmte Anwendung, wie beispielsweise ein Empfehlungssystem für den E-Commerce, ausreichend ist“, sagt er.
Forscher können auch Maßnahmen zur Effizienzsteigerung nutzen. Beispielsweise erkannte ein Postdoktorand im Supercomputing Center, dass die Gruppe während des Trainingsprozesses möglicherweise tausend Simulationen durchführt, um die zwei oder drei besten KI-Modelle für ihr Projekt auszuwählen.
Durch die Entwicklung eines Tools, mit dem sie etwa 80 Prozent dieser verschwendeten Rechenzyklen vermeiden konnten, reduzierten sie den Energiebedarf für das Training drastisch, ohne die Modellgenauigkeit zu beeinträchtigen, sagt Gadepally.
Effizienzssteigerungen nutzen
Ständige Innovationen bei der Computerhardware, wie beispielsweise dichtere Transistoranordnungen auf Halbleiterchips, ermöglichen nach wie vor dramatische Verbesserungen der Energieeffizienz von KI-Modellen. Auch wenn sich die Energieeffizienzverbesserungen bei den meisten Chips seit etwa 2005 verlangsamt haben, hat sich die Rechenleistung, die GPUs pro Joule Energie erbringen können, laut Neil Thompson, Direktor des FutureTech Research Project am MIT Computer Science and Artificial Intelligence Laboratory und leitender Forscher bei der MIT Initiative on the Digital Economy, jedes Jahr um 50 bis 60 Prozent verbessert.
„Der nach wie vor anhaltende Trend des ‚Moore’schen Gesetzes’, immer mehr Transistoren auf einem Chip unterzubringen, ist für viele dieser KI-Systeme nach wie vor von Bedeutung, da die parallele Ausführung von Operationen für die Verbesserung der Effizienz nach wie vor sehr wertvoll ist“, sagt Thomspon.
Noch bedeutender ist, dass die Forschung seiner Gruppe zeigt, dass sich die Effizienzgewinne durch neue Modellarchitekturen, die komplexe Probleme schneller lösen können und weniger Energie verbrauchen, um die gleichen oder bessere Ergebnisse zu erzielen, alle acht oder neun Monate verdoppeln.
Thompson prägte den Begriff „Negaflop“, um diesen Effekt zu beschreiben. So wie ein „Negawatt“ die durch Energiesparmaßnahmen eingesparte Elektrizität darstellt, ist ein „Negaflop“ eine Rechenoperation, die aufgrund algorithmischer Verbesserungen nicht durchgeführt werden muss. Dies können beispielsweise das „Ausdünnen“ oder „Trimmen“ (pruning) unnötiger Komponenten eines neuronalen Netzwerks oder der Einsatz von Komprimierungstechniken sein, die es den Benutzern ermöglichen, mit weniger Rechenaufwand mehr zu erreichen.
„Wenn Sie heute ein wirklich leistungsstarkes Modell benötigen, um Ihre Aufgabe zu erledigen, könnten Sie in wenigen Jahren möglicherweise ein deutlich kleineres Modell verwenden, um dasselbe zu erreichen, was eine viel geringere Umweltbelastung mit sich bringen würde. Diese Modelle effizienter zu gestalten, ist das Wichtigste, was Sie tun können, um die Umweltkosten der KI zu senken“, sagt Thompson.
Maximierung der Energieeinsparungen
Die Reduzierung des Gesamtenergieverbrauchs von KI-Algorithmen und Computerhardware wird zwar zu einer Verringerung der Treibhausgasemissionen führen, aber nicht alle Energie ist gleich, fügt Gadepally hinzu. „Die Menge der Kohlenstoffemissionen pro Kilowattstunde variiert erheblich, selbst innerhalb eines Tages, aber auch über den Monat und das Jahr hinweg“, sagt er.
Ingenieure können diese Schwankungen nutzen, indem sie die Flexibilität von KI-Workloads und Rechenzentrumsbetrieben nutzen, um die Emissionsreduktionen zu maximieren. Beispielsweise müssen einige generative KI-Workloads nicht vollständig zur gleichen Zeit ausgeführt werden.
Die Aufteilung der Rechenoperationen, sodass einige später ausgeführt werden, wenn mehr Strom aus erneuerbaren Quellen wie Sonne und Wind in das Netz eingespeist wird, kann laut Deepjyoti Deka, Forschungswissenschaftler bei der MIT Energy Initiative, erheblich zur Reduzierung des CO₂-Fußabdrucks eines Rechenzentrums beitragen. Deka und sein Team untersuchen auch „intelligentere” Rechenzentren, in denen die KI-Workloads mehrerer Unternehmen, die dieselben Rechenanlagen nutzen, flexibel angepasst werden, um die Energieeffizienz zu verbessern.
„Indem wir das System als Ganzes betrachten, hoffen wir, den Energieverbrauch und die Abhängigkeit von fossilen Brennstoffen zu minimieren und gleichzeitig die Zuverlässigkeitsstandards für KI-Unternehmen und Nutzer aufrechtzuerhalten“, sagt Deka. Er und andere Mitarbeiter des MITEI entwickeln ein Flexibilitätsmodell für Rechenzentren, das die unterschiedlichen Energieanforderungen beim Training eines Deep-Learning-Modells und bei dessen Einsatz berücksichtigt. Sie hoffen, die besten Strategien für die Planung und Optimierung von Rechenoperationen zu finden, um die Energieeffizienz zu verbessern.
Die Forscher untersuchen auch den Einsatz von Langzeit-Energiespeichern in Rechenzentren, die überschüssige Energie für Zeiten speichern, in denen sie benötigt wird. Mit diesen Systemen könnte ein Rechenzentrum während Zeiten mit hohem Bedarf die gespeicherte Energie aus erneuerbaren Quellen nutzen oder bei Schwankungen im Stromnetz auf den Einsatz von Diesel-Notstromaggregaten verzichten.„Langfristige Energiespeicher könnten hier eine entscheidende Rolle spielen, da wir Abläufe entwickeln können, die den Emissionsmix des Systems wirklich verändern, sodass es stärker auf erneuerbare Energien setzt“, sagt Deka.
Darüber hinaus entwickeln Forscher am MIT und an der Princeton University ein Software-Tool für die Investitionsplanung im Energiesektor namens GenX, mit dessen Hilfe Unternehmen den idealen Standort für ein Rechenzentrum ermitteln können, um Umweltbelastungen und Kosten zu minimieren. Der Standort kann einen großen Einfluss auf die Reduzierung des CO₂-Fußabdrucks eines Rechenzentrums haben. Meta betreibt beispielsweise ein Rechenzentrum in Lulea, einer Stadt an der Küste Nordschwedens, wo kühlere Temperaturen den Strombedarf für die Kühlung der Computerhardware senken.
KI-basierte Lösungen
Derzeit hält die Ausweitung der Erzeugung erneuerbarer Energien nicht mit dem rasanten Wachstum der KI Schritt, was ein großes Hindernis für die Reduzierung ihres CO₂-Fußabdrucks darstellt, sagt Jennifer Turliuk MBA '25, Kurzzeitdozentin, ehemalige Sloan Fellow und ehemalige Praxisleiterin für Klima- und Energie-KI am Martin Trust Center for MIT Entrepreneurship. Die für neue Projekte im Bereich erneuerbare Energien erforderlichen Prüfungsverfahren auf lokaler, bundesstaatlicher und föderaler Ebene können Jahre dauern.
Forscher am MIT und anderen Einrichtungen untersuchen den Einsatz von KI, um den Prozess der Anbindung neuer erneuerbarer Energiesysteme an das Stromnetz zu beschleunigen. Beispielsweise könnte ein generatives KI-Modell die Verbindungsstudien rationalisieren, mit denen ermittelt wird, wie sich ein neues Projekt auf das Stromnetz auswirkt – ein Schritt, der oft Jahre dauert. Gerade wenn es darum geht, die Entwicklung und Implementierung sauberer Energietechnologien zu beschleunigen, könnte KI eine wichtige Rolle spielen.
„Maschinelles Lernen eignet sich hervorragend für die Bewältigung komplexer Situationen, und das Stromnetz gilt als eine der größten und komplexesten Maschinen der Welt“, fügt Turliuk hinzu. KI könnte beispielsweise dazu beitragen, die Vorhersage der Solar- und Windenergieerzeugung zu optimieren oder ideale Standorte für neue Anlagen zu identifizieren.
Sie könnte auch zur vorausschauenden Wartung und Fehlererkennung bei Solaranlagen oder anderen grünen Energieinfrastrukturen eingesetzt werden oder zur Überwachung der Kapazität von Übertragungsleitungen, um die Effizienz zu maximieren. Indem KI Forschern hilft, riesige Datenmengen zu sammeln und zu analysieren, könnte sie auch gezielte politische Maßnahmen unterstützen, die darauf abzielen, in Bereichen wie erneuerbare Energien den größtmöglichen Nutzen zu erzielen, sagt Turliuk.
Um Politikern, Wissenschaftlern und Unternehmen dabei zu helfen, die vielfältigen Kosten und Vorteile von KI-Systemen zu berücksichtigen, haben Turliuk und ihre Mitarbeiter den Net Climate Impact Score entwickelt - ein Framework, mit dessen Hilfe die Netto-Klimawirkung von KI-Projekten ermittelt werden kann, wobei Emissionen und andere Umweltkosten sowie potenzielle Umweltvorteile in der Zukunft berücksichtigt werden.
Letztendlich werden die effektivsten Lösungen wahrscheinlich aus der Zusammenarbeit zwischen Unternehmen, Regulierungsbehörden und Forschern hervorgehen, wobei die Wissenschaft eine Vorreiterrolle einnehmen wird, fügt Turliuk hinzu. „Jeder Tag zählt. Wir befinden uns auf einem Weg, auf dem die Auswirkungen des Klimawandels erst dann vollständig bekannt sein werden, wenn es zu spät ist, um noch etwas dagegen zu unternehmen. Dies ist eine einmalige Gelegenheit, innovativ zu sein und KI-Systeme weniger kohlenstoffintensiv zu gestalten“, sagt sie.
Dieser Artikel erschien zunächst auf unserem Partnerportal Elektronikpraxis.