Skip to content
A traffic light sign in the forest symbolises the assessment of the interplay between climate change and AI.

KI zwischen Klimawandel und Klimaschutz

Der Klimawandel ist eine der größten Herausforderungen unserer Zeit. Zeitgleich besteht ein anhaltendes Interesse an der Nutzung und Entwicklung von Künstlicher Intelligenz (KI), einer Technologie, die für ihren Betrieb große Mengen Energie und natürliche Ressourcen benötigt. Dieser Artikel zeigt, wie Klimawandel und KI zusammenwirken und wie KI bei der Bekämpfung des Klimawandels helfen kann.

Um das Spannungsverhältnis zwischen Klimawandel und KI besser zu verstehen, müssen wir uns zunächst anschauen, was eigentlich hinter einer KI steckt – neben Programmiercode und Mathematik. Betrachten wir dafür ein konkretes Beispiel: Wir wollen uns von einem KI-Bot Informationen darüber einholen, was wir im Alltag gegen den Klimawandel tun können. Zunächst benötigen wir dafür ein Gerät, durch das wir auf den KI-Bot zugreifen können. Dann geben wir einen passenden Prompt in den Bot ein. Zum Beispiel: „Welche drei Dinge kann ich in meinem Alltag gegen den Klimawandel tun?“ Diese Anfrage wird nun über verschiedene Netze an den Server des KI-Bots geschickt, wo das dahinterstehende KI-Modell die Anfrage bearbeitet, eine Antwort generiert und diese an den Bot zurücksendet.

Das Generieren der Antwort benötigt jede Menge Energie und natürliche Ressourcen. Das beginnt mit dem Gerät, das wir nutzen, um auf den Bot zuzugreifen und beinhaltet die Infrastruktur, über welche die Anfrage an den Server des KI-Bots gesendet wird. Nicht zuletzt müssen die Server, auf denen der KI-Bot und das Modell gehostet werden, mit eingerechnet werden. Server nehmen eine zentrale Rolle dabei ein: Hier werden nicht nur das KI-Modell, sondern auch die Daten, welche für das Training des Modells benötigt werden, gespeichert. Zudem stellen Server die Rechenkapazitäten für die Lernphase des KI-Modells (Training) beziehungsweise das Anwenden des Modells auf neue Anfragen (Inferenz) bereit.

Energieverbrauch, Emissionen und Wasserverbrauch großer Sprachmodelle

Um unsere Frage zur Bekämpfung des Klimawandels zu beantworten, brauchen wir ein großes Sprachmodell, das diese Aufgabe – das Beantworten von Fragen in Textform – erlernt hat. Solche Modelle stehen momentan im Fokus der öffentlichen Aufmerksamkeit, bilden aber nur einen kleinen Teil möglicher KI-Modelle und Anwendungen ab. Beispiele großer Sprachmodelle sind die GPT-Modelle, Claude, Gemini oder BLOOM.

Für das Training unseres Modells wurden zunächst große Mengen an Daten (hier: Texte) gesammelt und für das Training aufbereitet. Beim Lernen verlässt sich das Modell auf Wahrscheinlichkeiten. Genauer gesagt: Es versteht nicht den konkreten Inhalt der Texte, sondern lernt die Wörter miteinander zu assoziieren. Ein Beispiel: Dem Satzanfang „Um etwas gegen den Klimawandel zu tun, kann ich…“ folgt häufiger „… mit dem Fahrrad zur Arbeit fahren.“ als zum Beispiel „… eine Fernreise machen.“ Wird ein KI-Modell also mit vielen Texten zur Bekämpfung des Klimawandels trainiert, erkennt es genau solche Zusammenhänge aus diesen Texten, und kann diese auf Abfrage auch wiedergeben. Hierbei können allerdings Fehler passieren. Die Generierung von falschen Informationen durch große Sprachmodelle („Halluzinieren“) ist dabei eine besonders problematische Eigenschaft.

Wie sieht es mit dem Stromverbrauch und den Emissionen hinter Training und Inferenz von solchen KI-Modellen aus? Laut einer Studie aus dem Jahr 2023 verbrauchte das Training des KI-Modells BLOOM 433 MWh. Zum Vergleich: Im Jahr 2024 lag der Netto-Stromverbrauch aller deutschen Haushalte bei 133 TWh, oder etwa 1,591 MWh pro Person (Bevölkerung 2024). Damit verbrauchte das Training von BLOOM in etwa so viel Energie wie etwa 272 Personen in Deutschland im Jahr 2024. Die mit dem Training von BLOOM verbundenen Emissionen wurden auf ca. 25 Tonnen CO2-Äquivalente geschätzt.

Dieselbe Studie schätzt den Verbrauch von BLOOM pro Anfrage auf etwa 0,004 kWh (914 kWh bei 230.768 Anfragen). Der Verbrauch pro Anfrage ist also um 8 Größenordnungen kleiner als der des Trainings – oder anders ausgedrückt: etwa hundert Millionen Mal geringer. Aber: Je mehr Menschen das Modell nutzen, desto höher ist der Verbrauch. Bei beliebten Modellen wie ChatGPT, liegt die Anzahl an Anfragen bei ca. 18 Milliarden pro Woche und ist damit ein wesentlicher Treiber der Verbräuche.

Aber was ist eigentlich BLOOM und was macht dieses Sprachmodell besonders? BLOOM entstand aus einer Initiative von über 1.000 Wissenschaftler*innen, ein transparentes, offenes („open source“) und multilinguales Modell zu schaffen. Deshalb wissen wir auch recht genau, wie hoch die Verbräuche und Emissionen von BLOOM sind – im Gegensatz zu nicht öffentlichen Modellen wie zum Beispiel GPT‑3, bei denen wir uns auf Schätzung verlassen müssen. Bei der Berechnung der Emissionen aus dem Stromverbrauch spielen zudem räumliche und zeitliche Faktoren eine Rolle. Denn diese Emissionen sind vom genutzten Strommix abhängig, welcher wiederum nach Serverstandort und Tages- bzw. Jahreszeit variiert. 

Hinzu kommt der Verbrauch von Wasser, der bei der Kühlung von Servern sowie auch bei der Stromerzeugung für die Server selbst anfällt. Eine Anfrage an GPT‑3 in den USA verbraucht beispielsweise im Durchschnitt ca. 17 ml, in Irland dagegen ca. 7 ml. Auch hier spielen wieder räumliche, aber auch zeitliche Faktoren eine Rolle. So ist die Außentemperatur ein wichtiger Einflussfaktor auf die Kühlung: in wärmeren Gebieten, im Sommer und am Tag (wenn die Sonne scheint), müssen die Server stärker gekühlt werden.

Der Zeitpunkt der Trainings- und Anwendungsphase, aber auch der Serverstandort sind für die Verbräuche bzw. Reduktion von Emissionen und Wasserverbräuchen daher entscheidend. Zwar kann tagsüber mehr Solarstrom und damit Strom mit weniger Emissionen erzeugt werden, gleichzeitig machen höhere Außentemperaturen es nötig, die Server stärker zu kühlen – was wiederum den Wasserverbrauch erhöht. Ebenso kann der Wasserverbrauch steigen, wenn Server durch emissionsarme Wasserkraft betrieben werden. Die optimale Zeit für die Nutzung und der optimale Standort von Servern müssen also immer im Spannungsfeld der verschiedenen Verbräuche betrachtet werden.

KI-Anwendungen für den Klimaschutz

Wie sieht es mit dem positiven Einfluss von KI-Anwendungen auf die Umwelt aus? Wir bleiben zunächst bei Sprachmodellen wie beispielsweise GPT‑3. Potentiell können solche Modelle einen indirekten positiven Beitrag leisten, indem sie beispielsweise die „Umweltbildung“ unterstützen – also zum Beispiel die Frage „Welche drei Dinge kann ich in meinem Alltag gegen den Klimawandel tun?“ korrekt beantworten. Ein weiteres Beispiel sind Sprachbarrieren, die sich durch die Nutzung von KI-Modellen verkleinern können und so neue Gruppen an Debatten zum Klimawandel teilhaben lassen können. Eine genaue Abschätzung der positiven Folgen solcher Modelle ist allerdings schwer und Gegenstand aktueller Forschung.

Einfacher sieht die Abschätzung von den konkreten positiven Folgen von KI-Anwendungen auf die Umwelt schon bei kleineren, auf spezielle Anwendungen zugeschnittenen Modellen aus. So kann KI die Kontrolle von industriellen Kühlsystemen optimieren, was einen direkten positiven Einfluss auf Ressourcen- und Energieverbräuche hat. Auch kann ein KI-gestütztes Monitoring von Torflandschaften einen weiteren positiven Beitrag zum Erhalt der Umwelt leisten: Da Torflandschaften enorme Mengen an CO2 speichern, ist ihr Schutz für die Bekämpfung des Klimawandels essentiell. Ein weiteres Beispiel ist der Einsatz von KI im Bereich des Transportwesens, genauer gesagt in der Modellierung der Bedarfe und der Planungen von Infrastruktur. Solche Modellierungen können einen direkten Einfluss darauf haben, wie lang Transportwege sind und welche Verkehrsmittel gewählt werden. Dies ist wiederum direkt an Emissionen geknüpft. So führen längere Wege prinzipiell zu höheren Emissionen und ist beispielsweise das Verkehrsmittel „Flugzeug“ mit höheren Emissionen verbunden als das Verkehrsmittel „Zug“. Solche KI-Modelle sind meist deutlich kleiner als die großen Sprachmodelle und haben daher einen geringeren Verbrauch an Ressourcen – was sie im Spannungsfeld KI und Klimawandel besonders attraktiv macht.

Gesamtbilanz: Es ist schwierig

Eine Gesamtbilanzierung zum Einfluss einer KI-Anwendung auf die Umwelt zu erstellen, ist allerdings schwierig. Zunächst stellt der Mangel an Daten und Standards besonders bei den Verbräuchen proprietärer KI-Modelle wie GPT‑3 eine große Herausforderung dar. Ohne diese Daten können nur Schätzungen der Verbräuche vorgenommen werden, und ohne Standards sind Daten, selbst wenn diese veröffentlicht werden, schwer vergleichbar. Daran knüpft die nächste Herausforderung an: Die Verbräuche von KI zu ermitteln ist oft sehr komplex: Große KI-Modelle sind in verschiedene digitale Anwendungen eingebettet und benötigen eine Vielzahl an digitaler Infrastruktur. Dazu kommt die Herstellung der Hardware. All diese Komplexitäten müssen für eine Gesamtbilanzierung mitgedacht werden. Außerdem: Selbst eine insgesamt positive Bilanz für eine KI-Anwendung kann am Ende wieder zu höheren Verbräuchen führen. Das sogenannte Jevons-Paradox bzw. der Rebound-Effekt besagt, dass durch Effizienz generierte Einsparungen durch eine häufigere Nutzung desselben Systems zu insgesamt steigenden Verbräuchen führen können (siehe Quelle 1 und Quelle 2).

Um diesen Herausforderungen zu begegnen, braucht es daher nicht nur weitere Forschung zum Thema KI und Umwelt. Auch die Gesetzgebung ist hier gefragt: Es braucht verpflichtende Transparenzvorgaben zum Reporting von Umweltdaten großer KI-Unternehmen und konkrete Zielvorgaben. Auch muss es Instrumente geben, Verstöße gegen diese Vorgaben nicht nur zu melden, sondern Unternehmen auch zur Verantwortung zu ziehen.

Solche Regelungen zu verstärkter Transparenz und Rechenschaftspflichten sind dabei nicht nur Fragen der Umweltgerechtigkeit. Denn unter den Folgen des Klimawandels leidet oft am stärksten, wer sowieso schon zu einer benachteiligten Gruppe zählt. Daher gilt: Lösungsideen zum Klimawandel sind komplex und müssen immer auch zusammen mit Fragen der sozialen Gerechtigkeit verhandelt werden.

Dieser Artikel ist zuerst am 10. Februar 2026 bei Zentrum Liberale Moderne erschienen.

Referenzen

Bender E. M., Gebru T., McMillan-Major A. & Shmitchell S. (2021) On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. ACM DL Digital Library. https://dl.acm.org/doi/10.1145/3442188.3445922

BLOOM (2022). BigScience Large Open-science Open-access Multilingual Language Model (Version 1.3). Hugging Face. https://huggingface.co/bigscience/bloom

Bölling N. (2025). 18 Milliarden Anfragen pro Woche: Das machen Menschen wirklich mit ChatGPT. t3n digital pioneers. https://t3n.de/news/18-milliarden-anfragen-pro-woche-das-machen-menschen-mit-chatgpt-1707588/

Ebert K., Alder N., Herbrich R. & Hacker P. (2025). AI Climate, and Regulation: From Data Centers to the AI Act. arXiv. https://arxiv.org/abs/2410.06681

Kaack L. H., Donti P. L., Strubell E., Kamiyam G., Creutzig F. & Rolnick D. (2022) Aligning artificial intelligence with climate change mitigation. nature climate change. https://www.nature.com/articles/s41558-022-01377-7

Li P., Yang J., Islam M. A. & Ren S. (2025). Making AI Less „Thirsty“: Uncovering and Addressing the Secret Water Footprint of AI Models. arXiv. https://arxiv.org/abs/2304.03271

Luccioni, A. S., Viguier S., & Ligozat A.-L. (2022). Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model. arXiv. https://arxiv.org/abs/2211.02001

Luccioni A. S., Strubell E. & Crawford K. (2025). From Efficiency Gains to Rebound Effects: The Problem of Jevons‘ Paradox in AI’s Polarized Environmental Debate. arXiv. https://arxiv.org/abs/2501.16548v1

Rillig M. C., Ågerstrand M., Bi M., Gould K. A. & Sauerland U. (2023). Risks and Benefits of Large Language Models for the Environment. ACS Publications. American Chemical Society. https://pubs.acs.org/doi/10.1021/acs.est.3c01106 

Rolnick D., Donti P. L., Kaack L. H., Kochanski K., Lacoste A., Sankaran K., Ross A. S., Milojevic-Dupont N.,  Jaques N., Waldman-Brown A., Luccioni A. S., Maharaj T., Sherwin E. D., Mukkavilli S K., Körding K. P., Gomes C. P, Ng A., Hassabis D., Platt J. C, Creutzig F., Chayes J. & Bengio Y. Q (2022). Tackling Climate Change with Machine Learning. ACM DL Digital Library. https://dl.acm.org/doi/10.1145/3485128

Solaiman I., Talat Z.,  Agnew W., Ahmad L., Baker D., Blodgett S. L., Chen C., Daumé III H., Dodge J., Duan I., Evans E., Friedrich F., Ghosh A., Gohar U., Hooker S.,  Jernite Y., Kalluri R., Lusoli A., Leidinger A., Lin M., Lin X., Luccioni S., Mickel J., Mitchell M., Newman J., Ovalle A., Png A.-M., Singh S., Strait A., Struppek L. & Subramonian A. (2024). Evaluating the Social Impact of Generative AI Systems in Systems and Society. arXiv. https://arxiv.org/abs/2306.05949 

Statistisches Bundesamt (Destatis) (2024). Bevölkerung: Deutschland, Stichtag. https://www-genesis.destatis.de/datenbank/online/statistic/12411/table/12411-0001

Umweltbundesamt (2025). Energieverbrauch privater Haushalte. https://www.umweltbundesamt.de/daten/private-haushalte-konsum/wohnen/energieverbrauch-privater-haushalte#stromverbrauch-mit-einem-anteil-von-rund-einem-funftel

Xiao T., Nerini F. F., Matthews H. D., Tavoni M. & You F. (2025). Environmental impact and net-zero pathways for sustainable artificial intelligence servers in the USA. nature sustainability. https://www.nature.com/articles/s41893-025-01681-y

Dieser Beitrag spiegelt die Meinung der Autor*innen und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Laura State, PhD

Postdoktorandin: Gesellschaftliche Werte, Transformation und KI

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Digitalisierung und Nachhaltigkeit

Die Digitalisierung birgt zahlreiche Chancen und Herausforderungen für die Nachhaltigkeit. Wie sieht ein verantwortungsvoller Umgang mit Technologie aus?
Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?