Gen-KI: Energiehunger mit Folgen

6. Juni 2025

Während generative künstliche Intelligenz zunehmend die Welt erobert, werden auch deren erheblich negative Auswirkungen auf die Umwelt immer offensichtlicher.

Ist von künstlicher Intelligenz die Rede, wird über die Fähigkeit von Maschinen gesprochen, die menschliche Intelligenz zu imitieren. Generative KI geht hier einen Schritt weiter. Anders als die traditionellen Machine-Learning-Modelle, die Muster lernen und auf deren Grundlage Vorhersagen oder Entscheidungen treffen, lernt generative KI nicht nur aus Daten, sondern erzeugt auch selbst neue Dateninstanzen. Diese kreative Fähigkeit eröffnet eine Fülle von Möglichkeiten. Die Palette reicht von der Erstellung von Texten für Zwecke wie Content-Marketing, Übersetzung und Kundensupport über die Generierung von Bildern aus textuellen Beschreibungen für Werbung, Design und Kunstproduktion bis hin zur Neuschaffung von Musikstücken oder zur künstlerischen Veränderung von Bildern. Möglich wird auch die Generierung synthetischer Daten für das Training anderer KI-Modelle, insbesondere in Szenarien, in denen das Sammeln realer Daten schwierig bis unmöglich ist.


INVESTITIONEN EXPLODIEREN. Anwendungsszenarien lassen sich für nahezu alle Unternehmensbranchen finden. Dementsprechend rasant schreitet die wirtschaftliche Entwicklung voran. Laut dem Statista Research Department betrugen die weltweiten privaten Investitionen in generative KI im Jahr 2022 rund vier Milliarden US-Dollar. 2024 waren es bereits 34 Milliarden. Die Prognose für 2031: mehr als 400 Milliarden. Innerhalb von zehn Jahren hätte sich das Marktvolumen dann verhundertfacht.


Hauptverantwortlich zeichnen dafür Technologiekonzerne wie Microsoft. Das Unternehmen will allein 2025 achtzig Milliarden US-Dollar in generative KI investieren. Vice Chair &President Brad Smith spricht in einer jüngsten Presseaussendung von einer „goldenen Opportunität für American Artificial Intelligence“ und davon, „KI-fähige Rechenzentren aufzubauen, in denen KI-Modelle trainiert sowie KI-und cloudbasierte Anwendungen weltweit bereitgestellt werden“. Die Energie für diese Rechenzentren soll unter anderem aus dem Atomkraftwerk Three Mile Island stammen, jenes Kraftwerk also, in dem es 1979 bei einer teilweisen Kernschmelze zum schwerwiegendsten Störfall in der US-Geschichte gekommen war. Ende 2024 teilten der Versorger Constellation Energy und Microsoft in einem gemeinsamen Kommuniqué mit, dass ein 20 Jahre laufender Stromliefervertrag geschlossen wurde. 2028 soll der neun Jahre zuvor stillgelegte Block 1 wieder in Betrieb gehen und den notwendigen Strom für die KI-Anwendungen von Microsoft liefern. Womit auch die Schattenseite von generativer KI offenkundig wird: ihre Energieintensität.

TEURE GRUSSFORMELN. Wie groß der Energiehunger der boomenden KI-Sparte ist, zeigt sich am Beispiel ihres bekanntesten Protagonisten. So kann eine einzelne Anfrage an einen KI-Chatbot wie ChatGPT bis zu zehn Mal mehr Strom verbrauchen als eine klassische Google-Suche: Während Letztere etwa 0,3 Wattstunden benötigt, schlägt eine Chatbot-Anfrage mit 2,9 Wattstunden zu Buche. Damit könnte man eine LED-Lampe zwei Stunden lang zum Leuchten bringen. Die großen Mengen an elektrischer Energie, die in den Serverzentralen für jede einzelne Frage anfallen, ergeben sich aus dem Aufwand für die Verarbeitung der Anfrage, für die Datenübertragung und für die Kommunikation zwischen den Systemen. Wie drastisch sich dabei vermeintliche Kleinigkeiten auswirken, davon berichtete kürzlich Sam Altman, CEO von OpenAI, auf Anfrage eines Users. Demnach kostet der Austausch von Höflichkeitsfloskeln wie „bitte“ und „danke“ in der Kommunikation mit dem Chatbot dem Unternehmen zig Millionen Dollar, weil sich der Verarbeitungsaufwand aufgrund der zusätzlichen Worte deutlich erhöht.


Dass der Stromverbrauch auch bei einer herkömmlichen Google-Suche immer größer wird, dafür sorgt die seit Kurzem übliche Integration von KI-generierten Antworten bei bestimmten Suchanfragen. Wenn Googles Sprachmodell Gemini die zentralen Aussagen unterschiedlicher Quellen zusammenfasst, erfordert dies enorme Mengen an zusätzlicher Energie. Das Unternehmen, das bei der mobilen Suche einen Marktanteil von 94 Prozent hat, verarbeitet derzeit rund 100.000 Suchen pro Sekunde. Experten wie der niederländische KI-Forscher Alex de Vries schätzen, dass die Google-Suchmaschine, wenn sie bei jeder Suche generative KI einsetzt, etwa 29,2 TWh Strom pro Jahr (statt bisher 18 TWh) benötigen würde – das entspricht in etwa dem jährlichen Stromverbrauch Irlands. In den USA testet Google übrigens bereits die nächste Entwicklungsstufe auf dem Weg von der Suchmaschine zur Antwortmaschine: Mit dem sogenannten AI Mode spuckt das Sprachmodell längere Zusammenfassungen von Antworten aus und ersetzt die handelsüblichen Links damit komplett.


RECHENINTENSIVE BILDER. Die Energieintensität und somit die Gefährdung von Klimazielen wird mittlerweile auch von den Technologiekonzernen nicht mehr bestritten. Microsoft-Vizepräsident Brad Smith nannte Anfang 2025 die generative KI als Hauptgrund dafür, dass die Konzernemissionen 2025 im Vergleich zum Jahr 2020 um etwa dreißig Prozent ansteigen werden.
Als wesentlichster Faktor des umweltfeindlichen Energiebedarfs gilt das Training der großen KI-Sprachmodelle. Zu den ersten Forschern, die diesem Zusammenhang auf den Grund gegangen sind, zählt die US-amerikanische Green-AI-Vorreiterin Emma Strubell, die herausfand, dass schon allein das Training von ChatGPT und ähnlichen Modellen für den Klimawandel relevante Mengen an CO2 freisetzt. Dazu untersuchte sie 2019 zunächst, wie viel Strom die besonders weit verbreiteten Transformer-KIs verbrauchen, wenn man sie für einen Tag auf einem standardisierten Computer trainieren lässt. Danach rechnete die Forschungsgruppe um Strubell hoch, wie viel CO2-Emissionen das vollständige Training eines einfachen Transformers erzeugen würde. Als Forschungsbasis wurde die preisgekrönte Sprach-KI LISA herangezogen, die die Gruppe selbst entwickelt hatte. Beim Training des LISA-Modells, das rund 5000 Mal von Grund auf neu erfolgte, wurden 280.000 kg CO2 frei – das entspricht in etwa den Emissionen eines US-Amerikaners von seiner Geburt bis zu seinem 18. Geburtstag. Dass KI-Entwickler in der Regel dasselbe Modell Tausende Male unter leicht veränderten Umständen trainieren, um die optimalen Trainingsbedingungen, die sogenannten Hyperparameter, herauszufinden, ist ein üblicher Vorgang.

Relevant für den hohen Energieverbrauch sind aber nicht nur die Trainingszeiten, sondern alle Phasen im Lebenszyklus der KI-Modelle, insbesondere die Nutzung. Schlagend wird Letztere vor allem dann, wenn sich die Entwicklung von derzeit noch überwiegend textbasierten Anwendungen hin zu multimodalen fortsetzt.


Text-zu-Bild-Vorgänge sind wesentlich rechenintensiver als reine Textkreationen. Eine gemeinsame Studie (2024, „Power Hungry Processing: Watts Driving the Cost of AI Deployment?“) von Emma Strubell und dem US-amerikanischen Machine-Learning-Unternehmen Hugging Face brachte zu Tage, dass eintausend Anwendungen von Textgeneratoren durchschnittlich 0,047 Kilowattstunden benötigen, während Bildgeneratoren 2,9 Kilowattstunden verbrauchen – also mehr als das 60-Fache. Mit der Energiemenge, die es für 1000 KI-generierte Bilder braucht, könnte man vergleichsweise 150 Stunden lang aktiv an einem Laptop arbeiten, zwanzig Kilometer mit dem Elektroauto fahren oder 200 Tassen Kaffee kochen.

NEU MEGA-RECHENZENTREN. Um den drastisch anwachsenden Leistungshunger von generativer KI zu stillen, werden weltweit immer leistungsstärkere Rechenzentren hochgezogen. „Die Demokratisierung der künstlichen Intelligenz löst die größte Veränderung in der Rechenzentrumsbranche aus, seit diese auf den Plan getreten ist“, schreiben die Marktbeobachter von JLL in ihrem jüngsten Branchenreport. Laut dem JLL Global Data Center Outlook 2025 vereinten Rechenzentren der Typen Hyperscaler und Colocation im Jahr 2024 weltweit rund 50 Gigawatt (GW) auf sich. Bis 2027 dürfte der Markt jährlich um etwa 15 Prozent wachsen und dann bereits über 75 GW verfügen. „Liegt der Anteil von Rechenzentren am globalen Energiebedarf im Jahr 2025 noch bei rund zwei Prozent, wird sich dieser Anteil den Prognosen zufolge in den kommenden fünf Jahren verdoppeln“, so Helge Scheunemann, Head of Research JLL Germany.


Auch eine jüngste Analyse von McKinsey kommt zur Conclusio, dass der Boom bei Rechenzentren zur Unterstützung von KI neben finanziellen Kosten ebenfalls hohe Umweltkosten mit sich bringt. In den USA etwa wird erwartet, dass der Betrieb der Rechenzentren bis zum Jahr 2040 jährlich 35 Gigawatt Strom verbrauchen wird. 2022 waren es noch 17 Gigawatt. Das Problem: Selbst konservative Expertenberechnungen zeigen, dass die KI-bedingte Energienachfrage von Rechenzentren so schnell wächst, dass der Ausbau der erneuerbaren Energien nicht mithalten kann -mit der Konsequenz, dass der massive Ausbau der Rechenzentren die Pläne zur Klimaneutralität durchkreuzen.
WASSER & E-SCHROTT. Als problematisch erweist sich in Zusammenhang mit zusätzlichen, immer leistungsfähigeren Rechenzentren auch der Wasserverbrauch. Der größte Teil davon entfällt auf Kühl-und Befeuchtungssysteme, um die optimale Betriebstemperatur der Hardware sicherzustellen. Laut Konzernangaben verbraucht ein durchschnittliches Google-Rechenzentrum 1,7 Millionen Liter Wasser pro Tag. Zur Einordnung: Damit könnte der durchschnittliche tägliche (Trink-)Wasserbedarf von etwa 13.000 Österreichern gedeckt werden. Ein anderes Zahlenbeispiel, das den Anteil von generativer KI illustriert: In West Des Moines, Iowa, USA, stieg der Wasserbedarf der Microsoft-Rechenzentren vom Jahr 2021 zum Jahr 2022 um 34 Prozent.


Im Juli 2022, dem Monat, als OpenAI das KI-Modell GPT-4 fertigstellte, verbrauchte Microsoft vor Ort 11,5 Millionen Gallonen Wasser -sechs Prozent des gesamten Wasserverbrauchs der Stadt.
Diversen Schätzungen zufolge könnte der betriebliche Wasserverbrauch der globalen KI-Nutzung im Jahr 2026 etwa 4,2 bis 6,6 Milliarden Kubikmeter erreichen. Das entspricht grob dem Doppelten des gesamten jährlichen Wasserbedarfs in Österreich (also für Industrie, Gewerbe, Landwirtschaft und Wasserversorgung).
Kritisch zu hinterfragen ist dies vor allem in Anbetracht des drohenden globalen Wassermangels. Schließlich lebt schon heute ein Fünftel der Erdbevölkerung in Regionen, in denen mehr Wasser verbraucht wird, als wieder in den Kreislauf zurückfließt. Etwa jeder sechste Mensch auf der Erde ist von schwerwiegenden Wasserproblemen betroffen, rund 15 Prozent der Landbevölkerung der Welt.


Zu einem brisanten Umweltthema droht ebenfalls der Einsatz von auf KI spezialisierte Grafikkarten, sogenannten GPUs. Für generative KI spielen die Grafikprozessoren eine entscheidende Rolle. Allein der Konzern Meta will bis Ende 2025 mehr als 1,3 Millionen GPU-Beschleuniger betreiben, wie Marc Zuckerberg Anfang 2025 auf Threads mitteilte. Dafür wird im texanischen Temple ein Zwei-Gigagwatt-Rechenzentrum errichtet, das, so der Meta-Chef, „so groß ist, dass es einen beträchtlichen Teil von Manhattan abdecken würde“. GPUs belasten die Umwelt jedoch massiv, von der Rohstoffgewinnung bis hin zum Elektronikschrott am Ende ihres Lebenszyklus. Fakt ist nämlich, dass die Hardware noch kaum recycelt wird.


GEGENMASSNAHMEN. Während die Anwendung von generativer KI die Umwelt zunehmend belastet, bilden sich zeitgleich Initiativen, um die gesamte Entwicklung in klimafreundlichere Bahnen zu lenken. Zu den interessantesten Ansätzen zählt das von namhaften Forschern und Führungskräften von Meta, Hugging Face, Salesforce und anderen ins Leben gerufene AI Energy Star Projekt. Das Projekt orientiert sich an den Energy-Star-Bewertungen der US-Umweltschutzbehörde. Diese bieten den Verbrauchern ein transparentes, einfaches Maß für den Energieverbrauch von Produkten, die von Waschmaschinen bis zu Autos reichen.


Das Projekt AI Energy Star verfolgt ein ähnliches Ziel: Es soll Entwicklern und Nutzern von KI-Modellen helfen, den Energieverbrauch zu berücksichtigen. „Durch das Testen von KI-Modellen für eine Reihe beliebter Anwendungsfälle können wir einen erwarteten Bereich des Energieverbrauchs ermitteln und die Modelle danach bewerten, wo sie in diesem Bereich liegen wobei diejenigen, die am wenigsten Energie verbrauchen, die höchste Bewertung erhalten“, heißt es in einem Fachartikel des Wissenschaftsjournals Nature. Dieses einfache System soll den Nutzern helfen, schnell die für ihren Anwendungsfall am besten geeigneten Modelle auswählen zu können.
Die Forscher, zu denen auch wieder AI-Expertin Emma Strubell gehört, argumentieren, „dass dieses einfache System Modellentwickler ermutigen wird, künftig den Umwelt-und Energieverbrauch als wichtigen Parameter zu berücksichtigen“.

Die Presse