Der zweitägige AI Action Summit in Paris vom 10. bis 11. Februar 2025 brachte rund 100 Nationen sowie Branchenvertreter zusammen. Am Ende unterzeichneten 61 Länder eine Deklaration, die sich für eine offene, inklusive, transparente, ethische, sichere und vertrauenswürdige Künstliche Intelligenz (KI) aussprach – unter internationalem Rahmen und mit Fokus auf Nachhaltigkeit für Mensch und Planet. Die USA und das Vereinigte Königreich verzichteten auf eine Unterzeichnung.

Bezieht man die drei Säulen der Nachhaltigkeit oder die 17 UN-Nachhaltigkeitsziele mit ein, lässt sich sagen: Die Deklaration verfolgt das Ziel einer ganzheitlich nachhaltigen KI. Doch wie realistisch ist eine ökologisch und nachhaltig verträgliche KI?

KI und Energieverbrauch

Ähnlich wie bei Streaming-Diensten oder Kryptowährungen sorgt auch der Energieverbrauch von KI für kontroverse Diskussionen. Fakt ist: Ja, KI benötigt viel Energie. Doch entscheidend ist, den Verbrauch nicht isoliert zu betrachten. Ein einseitiger Fokus auf die CO₂-Bilanz birgt das Risiko, aus dem bisherigen Carbon-Tunnelblick einen KI-Tunnelblick zu machen – ohne das Gesamtsystem in den Blick zu nehmen.

Eine nachhaltige KI-Entwicklung erfordert mehr als nur technologische Lösungen. Sie muss tief in gesellschaftliche und wirtschaftliche Strukturen integriert werden. Es liegt an Individuen, Gesellschaft und Politik, eine digitale Zukunft zu gestalten, die technologischen

KI: Wie, wann und wo – oder doch ob?

Eine Bitkom-Umfrage aus dem Herbst 2024 ergab, dass vier von zehn Deutschen bereits KI-Anwendungen wie ChatGPT ausprobiert haben. In Unternehmen lag die Nutzungsrate generativer KI zu diesem Zeitpunkt bei nur 9 %, während 20 % der Unternehmen KI in irgendeiner Form einsetzen.

Bitkom-Präsident Dr. Ralf Wintergerst bringt es auf den Punkt: „Die Zeiten sind vorbei, in denen sich Unternehmen fragen mussten, ob ihnen generative KI Vorteile bringen kann. Heute geht es nicht mehr um das Ob, es geht nur noch um das Wie, Wann und Wo.“ (Quelle)

Dennoch bleibt die Frage nach dem Ob relevant – insbesondere mit Blick auf den Energieverbrauch. Ist es ethisch vertretbar, leistungsstärkere LLMs wie GPT-4.0 und die nachfolgenden Chain-of-Thought-Modelle zu nutzen, obwohl sie noch mehr Energie verbrauchen? Oder sollte klassische Recherche bevorzugt werden? Falls ja – über eine Browser-Suche oder doch wieder über den Brockhaus?

Eine Antwort darauf hängt auch von der Frage nach dem Wo ab – also dem Einsatzbereich. Laut Bitkom wünschen sich die meisten Befragten KI-Anwendungen, die Sicherheit oder Effizienz steigern:

  • 80 % befürworten KI in der Cybersicherheit,
  • 78 % in Verwaltung, Verkehr und Mobilität,
  • 75 % im Gesundheitswesen,
  • 67 % in Umwelt- und Nachhaltigkeitsbereichen.

Knapp die Hälfte unterstützt KI-Nutzung im Handel, Bankenwesen, Justiz, Sport und Militär. Am wenigsten Zustimmung gibt es für KI in Politik (42 %), Rechtswesen (41 %) sowie Kunst und Kultur (38 %).

Kann KI trotz ihres Verbrauchs Lösungen für den Klimawandel bieten?

In einer früheren Next Stop Future-Podcast-Folge sprach ich mit Catharina über KI und Nachhaltigkeit. Damals vertrat ich die Ansicht, dass die Effizienzgewinne den Energieverbrauch übersteigen könnten – KI könnte also trotz ihres hohen Bedarfs zur Nachhaltigkeit beitragen.

Doch neue Modelle benötigen deutlich mehr Ressourcen als ältere LLMs. Da immer mehr Suchanfragen über KI statt über klassische Suchmaschinen laufen, steigt der Gesamtverbrauch. Noch vor Kurzem verbrauchte eine KI-Anfrage deutlich mehr Energie als eine Google-Suche. Doch da zunehmend Suchmaschinen selbst KI-gestützte Funktionen integrieren, wird dieser Vergleich allmählich hinfällig – vor allem, wenn eine KI-Anfrage ein wesentlich präziseres Ergebnis liefert.

Während ein einzelner Prompt kaum ins Gewicht fällt, ist aber die Masse entscheidend.

  • 1 GPT-4-Request verbraucht 0,003 kWh (Quelle: EPRI).
  • Ein durchschnittlicher Wasserkocher benötigt etwa 0,11 kWh, um 1 Liter Wasser zu erhitzen.

Dass diese Daten mit Vorsicht zu interpretieren sind, zeigt ein Vergleich zweier Studien:

Laut Emma Strubell et al. (Quelle) verursachte das Training eines Deep-Learning-Modells mit einer Architektur künstlicher neuronaler Netzwerke 284.019 kg CO₂e – vergleichbar mit rund 300 Interkontinentalflügen.

Eine Analyse von Google-Wissenschaftlern (Patterson et al., Quelle) kam hingegen zu einem deutlich niedrigeren Wert: Der tatsächliche CO₂-Ausstoß lag demnach um das 88-Fache unter den Berechnungen von Strubell et al. In modernen Rechenzentren könnte der Wert sogar um das 476-Fache niedriger ausfallen.

Entscheidend für den Energieverbrauch sind demnach nicht nur der Zeitpunkt, der Standort und die Hardware des Trainings, sondern auch das verwendete Modell selbst. Der Einsatz neuer Tensor-Prozessoren kann die CO₂-Emissionen weiter senken. Die Autoren der Google-Studie fordern daher mehr Transparenz und plädieren dafür, den Energieverbrauch sowie die CO₂-Emissionen in wissenschaftlichen Veröffentlichungen standardmäßig anzugeben.

Die unsichtbare Ressource: Energie- und Wasserverbrauch von KI

Verlässliche Zahlen zum Energieverbrauch sind schwer zu finden. Klar ersichtlich ist jedoch das Wachstum der Rechenzentren und deren steigender Strombedarf.

Laut Data Center Map gibt es weltweit derzeit rund 8.600 Rechenzentren, eine ähnliche Zahl ermittelt Cloudscene. Die Internationale Energieagentur (IEA) schätzt, dass Rechenzentren aktuell 1 bis 1,5 % des weltweiten Energiebedarfs ausmachen – mit rasant steigenden Investitionen, insbesondere in den USA.

Neben dem wachsenden Energieverbrauch ist auch der Wasserbedarf für die Kühlung ein kritischer Faktor. Eine Studie aus dem Jahr 2023 zeigte, dass das Training von GPT-3 in einem modernen US-Rechenzentrum rund 700.000 Liter Frischwasser benötigte – vergleichbar mit der Produktion von 370 BMW-Autos. In weniger effizienten Rechenzentren, etwa in Asien, hätte sich dieser Verbrauch verdreifacht.

Die Autoren der Studie empfehlen daher, das Training von KI-Modellen in kühlere Zeiträume zu verlegen, um den Wasserverlust durch Verdunstung zu minimieren.

Problem: Steigende Energienachfrage und fossile Brennstoffe

Ein zentrales Problem bleibt: Die steigende Nachfrage nach Rechenleistung wird derzeit überwiegend durch fossile Brennstoffe wie Erdgas und Kohle gedeckt – nicht durch erneuerbare Energien.

Seit Januar 2024 sind Unternehmen in Deutschland gesetzlich verpflichtet, mindestens 50 % ihres Strombedarfs aus erneuerbaren Quellen zu beziehen. Ab 2027 soll dieser Anteil weltweit auf 100 % steigen (Quelle). Doch global sieht die Realität anders aus (Quelle: Reuters).

Lösungsansätze für eine nachhaltigere KI

Lösungsansätze gibt es – aber sie erfordern nicht nur soziokulturelle, sondern politische und wirtschaftliche Transformationen. KI kann eine Schlüsselrolle bei der Bewältigung ökologischer und gesellschaftlicher Herausforderungen spielen, indem sie Effizienzpotenziale in Ressourcennutzung, Energieverbrauch und Kreislaufwirtschaft hebt. Doch für eine nachhaltige Zukunft sind tiefgreifende strukturelle Veränderungen notwendig, die sich in den transformativen Trends wiederfinden.

Die Eco Transition beschreibt, Nachhaltigkeit systemisch zu verankern, statt sie nur auf Verzicht oder Kompensation zu reduzieren. Dies bedeutet, dass KI-Technologien nicht nur Emissionen optimieren, sondern Kreislaufwirtschaft und regenerative Wirtschaftsmodelle aktiv gestalten werden. Die Conscious Economy erweitert diesen Ansatz, indem sie wirtschaftliche Wertschöpfung mit sozialen und ökologischen Zielen verknüpft. KI könnte hier als Werkzeug für transparente und faire Produktions- und Handelsprozesse eingesetzt werden.

Gleichzeitig spielen gesellschaftliche und ethische Dimensionen eine zentrale Rolle. Die Co-Society fördert neue Formen der Zusammenarbeit, die auf Offenheit und Teilhabe beruhen – Open-Source-KI-Modelle ermöglichen eine gemeinschaftliche Entwicklung von Technologie und verhindern monopolistische Abhängigkeiten.

Dezentralität wird auch im Rahmen der Glocalisation relevant, die globale Vernetzung mit lokalen, anpassungsfähigen Strukturen kombiniert. Dezentrale KI-Ansätze und Small Language Models (SLMs) stehen dabei für eine nachhaltigere und demokratischere Alternative zu energieintensiven zentralisierten Systemen.

Die ethische Dimension zeigt sich in der Human Digitality: KI darf nicht nur funktionale Optimierung betreiben, sondern muss auch menschliche Werte, Privatsphäre und digitale Selbstbestimmung respektieren. Ein verantwortungsvoller Umgang mit Daten, der Schutz individueller Rechte und die Entwicklung fairer, diskriminierungsfreier Algorithmen sind essenziell, um KI zu einem Instrument für eine lebenswerte Zukunft zu machen.

Die Zukunft der KI liegt also nicht nur in ihrer technologischen Weiterentwicklung, sondern vor allem in ihrer sinnhaften, nachhaltigen und ethisch reflektierten Integration in gesellschaftliche Transformationsprozesse.

Nachhaltige KI bleibt eine Herausforderung
– aber ist doch umsetzbar

1. Smarte Software und intelligente Nutzung der Hardware

Wann ist der Einsatz von KI legitim – sowohl zeitlich als auch thematisch? Diese Frage gewinnt angesichts des hohen Ressourcenverbrauchs an Bedeutung. Sollten KI-Modelle nur zu bestimmten Zeiten betrieben werden, wenn erneuerbare Energien ausreichend verfügbar sind? Sollte es Einschränkungen für besonders energieintensive Anwendungen geben? Effiziente Softwareentwicklung: KI-Systeme können so programmiert werden, dass sie sich an Schwankungen der Kohlenstoffemissionen anpassen und nicht-zeitkritische Aufgaben in energieeffizienten Zeiträumen ausführen. Das Power Capping: Durch eine reduzierte Auslastung von GPUs und Prozessoren kann der Stromverbrauch gesenkt werden, ohne die Effizienz zu beeinträchtigen (Quelle: MIT Sloan).

2. Kreislaufwirtschaft im Hardware-Sektor etablieren

KI kann nicht nur bei der Optimierung und Etablierung der Kreislaufwirtschaft unterstützend tätig sein, sondern auch dazu beitragen, nachhaltige Lösungen für die Wiederverwendung von Hardware zu entwickeln. Während der Corona-Pandemie führte der weltweite Mangel an Computerchips zu einem verstärkten Bewusstsein für die Notwendigkeit einer zirkulären Nutzung elektronischer Komponenten. Angesichts der steigenden Nachfrage nach Rechenleistung und der begrenzten Verfügbarkeit wichtiger Ressourcen wird die Implementierung des Cradle-to-Cradle-(C2C)-Ansatzes zunehmend essenziell für die Zukunft von Nachhaltigkeit und KI.

Quelle: Circular Economy Initiative
Quelle: AZoM – Recycling von Computerchips

3. Offene KI-Infrastrukturen

Open-Source-KI-Modelle fördern Transparenz und ermöglichen Unternehmen jeder Größe, energieeffiziente KI-Lösungen zu entwickeln und einzusetzen. Die Open-Source-Community trägt durch kontinuierliche Verbesserungen zur Optimierung dieser Modelle bei. Diese demokratisierte Nutzung von LLMs senkt die Einstiegshürden für Entwickler weltweit und treibt den Fortschritt im Bereich generativer KI-Technologien voran. Open-Source-Modelle ermöglichen eine transparentere Nutzung von Daten und können helfen, den Energieverbrauch besser zu analysieren und zu optimieren. Quelle: DataCamp – Top Open-Source-LLMs

4. Globale Gerechtigkeit

Es ist essenziell sicherzustellen, dass der Einsatz von KI-Technologien bestehende Energie- und Digitalungleichheiten in Entwicklungsländern nicht weiter verschärft.

Die UNESCO betont die Notwendigkeit, KI-Kapazitäten in Ländern mit niedrigem und mittlerem Einkommen auszubauen, um digitale Gräben zu überbrücken. Dies erfordert gezielte Maßnahmen von Regierungen, der Privatwirtschaft und internationalen Akteuren, die in der Entwicklungszusammenarbeit tätig sind.

Durch den verbesserten Zugang zu KI-Technologien kann ein Beitrag zur Reduzierung globaler Ungleichheiten geleistet werden. Eine faire und nachhaltige KI-Entwicklung sollte darauf abzielen, technologische Fortschritte für alle zugänglich zu machen, anstatt bestehende Disparitäten zu vertiefen.

Quelle: UNESCO-Empfehlung zur Ethik Künstlicher Intelligenz

5. Förderung von Suffizienz-Strategien

Die Entwicklung kleinerer, auf spezifische Aufgaben ausgerichteter KI-Modelle kann den Energieverbrauch erheblich reduzieren, ohne die Leistung zu beeinträchtigen. Forschungen zur energieeffizienten Praxis beim Training von Deep-Learning-Modellen zeigen, dass eine Reduzierung der Modellkomplexität den Energieverbrauch um die Hälfte senken kann.

6. Dezentralisierung

Die Grenzen zentralisierter KI-Modelle – eingeschränkter Datenzugang, unflexible Strukturen und mangelnde Transparenz – lassen sich durch dezentrale Ansätze überwinden.

Durch die Schaffung sicherer Datenmärkte kann der Austausch von Daten ermöglicht werden, ohne die Privatsphäre zu gefährden. Gleichzeitig erlauben multi-dimensionale Modelle, durch Simulationen und Modellierung aus realen Erfahrungen zu lernen.

Technologien wie Federated Learning und Blockchain können dazu beitragen, die verantwortungsvolle Entwicklung und den sicheren Einsatz von KI-Modellen zu gewährleisten.

Diese Dezentralisierung fördert die Demokratisierung von Innovationen, indem sie Individuen und kleineren Unternehmen den Zugang zu KI-Entwicklung erleichtert. Dadurch entsteht ein gerechteres, transparenteres und inklusiveres KI-Ökosystem, das nicht nur wenigen Großkonzernen vorbehalten bleibt. Quelle

7. Die menschliche Gehirnarchitektur als Inspiration

Die menschliche Gehirnarchitektur dient als Inspiration für die Entwicklung energieeffizienter Künstlicher Intelligenz (KI). Das Gehirn arbeitet mit etwa 20 Watt Energie und nutzt dabei selektiv verschiedene Regionen für spezifische Aufgaben. Forscher der University of Sydney entwickeln Algorithmen, die unnötige Berechnungen umgehen und nur die notwendigen Rechenressourcen aktivieren. Dieses selektive Aktivieren von Rechenressourcen, ähnlich dem menschlichen Gehirn, könnte den Energieverbrauch von KI-Systemen erheblich reduzieren und somit zu nachhaltigeren KI-Lösungen führen. (University of Sydney).