
Die wachsende Nachfrage nach KI führt zu einem stark steigenden Energiebedarf. Forderungen, die Umweltauswirkungen stärker zu berücksichtigen, werden lauter. Die Branche sucht nach Auswegen.
Der Nachhaltigkeitsreport von Microsoft offenbart das ganze Dilemma. Einerseits gilt Künstliche Intelligenz als zukunftsweisende Technologie, die auch beim Umweltschutz kräftig mithelfen soll. Andererseits aber verbraucht KI selbst jede Menge Energie.
„Neue Technologien, darunter generative KI, versprechen innovative Lösungen und Ansätze, die zur Bewältigung der Klimakrise beitragen können“, schreibt der Software-Konzern in seinem „Environmental Sustainability Report 2024“. „Gleichzeitig stellen die Infrastruktur und die Energie, die diese Technologien benötigen, den gesamten Technologiesektor vor neue Herausforderungen für die Einhaltung der Nachhaltigkeits-Verpflichtungen.“
Die Botschaft dieser diplomatisch verklausulierten Formulierungen: Es bedarf großer Anstrengungen, die selbstauferlegten Klimaziele angesichts des KI-Booms zu erreichen – bis zum Jahr 2030 will Microsoft CO2-negativ sein.
Ein ähnliches Bild zeigt der andere Tech-Gigant Google. Auch ihm verhagelt die wachsende Nachfrage nach KI gerade die Klimabilanz. In seinem kürzlich vorgestellten Nachhaltigkeitsbericht räumt Google ein, dass die CO2-Emissionen im Jahr 2023 gegenüber dem Vorjahr um 13 Prozent gestiegen sind, gegenüber 2019 sogar um 48 Prozent. Zurückzuführen ist das ebenfalls auf den erhöhten Energiebedarf der KI-Rechenzentren. Damit verbunden ist nebenbei ein stark steigender Wasserverbrauch zur Kühlung der Rechner. Wie Microsoft betont auch Google, weiter an seinen ambitionierten Klimazielen festzuhalten. Allerdings werde dieser Weg nicht einfacher.
Wird der Boom um Künstliche Intelligenz damit zum Klimakiller? Immerhin steigt die Nutzung von KI-Tools Woche für Woche. Ein Beispiel: Nach Angaben des Datenexperten Demandsage verzeichnet die Website von Chat GPT derzeit im Monat etwa 17 Milliarden Visits, Tendenz steigend. „Der Energieverbrauch von KI kann signifikante Auswirkungen auf die CO2-Bilanz und den Klimawandel haben“, bestätigt Desiree Modic, Head of AI Strategy & Transformation bei Applied AI. „Der Betrieb und das Training großer KI-Modelle erfordern erhebliche Rechenleistung, was zu einem erhöhten Energieverbrauch führt.“ Faktoren, die den steigenden Energiehunger fördern, seien dabei immer größere Modelle wie GPT-4, aber auch häufigere Trainings und längere Trainingszeiten.
Bill Gates beruhigt
Alex de Fries, Wissenschaftler an der VU Amsterdam School of Business and Economics, hat kürzlich in einem wissenschaftlichem Paper den steigenden Energieverbrauch von KI untersucht. Darin schreibt er, dass Chat GPT am Tag etwa 564 Megawattstunden Energie verbraucht, ungefähr der Bedarf von 60.000 Haushalten in Deutschland. Das ist aber nur der Anfang. Nach Schätzungen von de Fries werden allein die Chips, die Nvidia bis 2027 verkaufen wird, bis zu 134 Terawattstunden Strom im Jahr fressen: Das ist in etwa die Summe, die alle deutschen Haushalte für Waschen, Kochen, Kühl- und Gefrierschränke im Jahr benötigen. Auch die zunehmende Integration von KI in die Google-Suche werde den Bedarf weiter steigern.
Bill Gates, Mitbegründer von Microsoft und weltweit geschätzter Visionär, versuchte angesichts dieser Zahlen, die Gemüter zu beruhigen. Auf einem Event in London Ende Juni betonte er, dass KI mittelfristig dazu führen werde, den Energieverbrauch weltweit zu senken. Rechenzentren würden zwar den Stromverbrauch um sechs Prozent erhöhen, doch über kurz oder lang aufgrund zu einer Senkung von weltweit mehr als sechs Prozent beitragen. Kein Grund also zur Panik.
KI-Forscher wie Alexander de Fries halten es dennoch für wichtig, den Fokus auf Sofortmaßnahmen zu legen. Er plädiert dafür, dass sich Entwickler nicht nur auf die Optimierung von KI konzentrieren, sondern auch kritisch prüfen, ob der Einsatz von KI im Einzelfall überhaupt notwendig ist. Denn nicht alle Anwendungen würden von KI profitieren. Regulierungsbehörden wiederum sollten Offenlegungspflichten zur Umweltbelastung einführen. Mit anderen Worten: Der Verbrauch müsse in einem sinnvollen Verhältnis zur erwartbaren Effizienzsteigerung stehen.
Förderung energiesparsamer KI
Politische und regulatorische Maßnahmen könnten den Energieverbrauch von KI reduzieren, betont auch Desiree Modic. Dazu zählen beispielsweise Maßnahmen, die den Einsatz erneuerbarer Energien unterstützten, die Förderung von Forschungen im Bereich energieeffizienter KI-Technologien, aber auch die Aufklärung über die Umweltauswirkungen von Künstlicher Intelligenz. Daneben könnten schon heute KI-Modelle energieeffizient gestaltet werden: indem Modelle direkt auf Endgeräten trainiert, Datensätze nicht unnötig dupliziert oder sparsamere Netzwerke eingesetzt werden.
Dass sich damit beachtliche Erfolge erzielen lassen, bewies kürzlich das Future Energy Lab der Deutschen Energie-Agentur in einem Pilotprojekt. Durch die Verwendung spezialisierter Chips und durch das lokale Training von KI-Modellen, bei dem nur Aktualisierungen übertragen werden, konnten Einsparungen zwischen 31 und 65 Prozent ermittelt werden. Dies zeige exemplarisch, wie groß das Potenzial für die Steigerung der Energieeffizienz für KI-Anwendungen sei, heißt es in dem Fazit der Studie. Man müsse deshalb jetzt gezielt Anreize setzen, um Energieeffizienzpotenziale zu identifizieren und nutzbar zu machen.