Künstliche Intelligenz, insbesondere ihre generativen Formen, steht an einem entscheidenden Scheideweg. Während sie die Welt mit ihren beispiellosen Fähigkeiten - von der Erstellung anspruchsvoller Prosa bis hin zu wissenschaftlichen Durchbrüchen - in ihren Bann zieht, hat sie gleichzeitig mit einem immer größeren ökologischen Fußabdruck zu kämpfen. Die digitale Technologie, die oft unsichtbar ist, macht der Luft- und Raumfahrtindustrie bei den Kohlenstoffemissionen bereits Konkurrenz: 2% bis 4% des weltweiten Ausstoßes entfallen auf sie. Angesichts der bevorstehenden massiven Einführung generativer KI stellt sich die entscheidende Frage: Kann diese energiehungrige Technologie paradoxerweise zu einem wichtigen Verbündeten bei der Senkung unseres globalen Energieverbrauchs werden?
Der digitale Schattendasein: Wachsender Appetit auf Energie
Das Ausmaß des digitalen Energieverbrauchs ist atemberaubend. Die weltweit rund 11'000 Rechenzentren verbrauchten im Jahr 2022 etwa 460 TWh - das entspricht dem gesamten Energieverbrauch Frankreichs. Wie Manuel Cubero-Castan von der EPFL hervorhebt, muss man, um die "Gesamtkosten" von generativen KI-Systemen zu verstehen, über den reinen Betriebsstromverbrauch hinausschauen. Sie umfassen den gesamten Lebenszyklus: vom Abbau der Mineralien über die Montage der Komponenten bis hin zur oft illegalen Entsorgung des Elektronikschrotts. Die Umweltauswirkungen gehen also weit über die Strom- und Wasserrechnungen des Rechenzentrums hinaus.
In der Vergangenheit ist es Rechenzentren trotz eines jährlichen Wachstums von 4% gelungen, ihren Gesamtstromverbrauch zwischen 2010 und 2020 dank erheblicher Verbesserungen der Energieeffizienz relativ stabil zu halten. Die weit verbreitete Integration von generativer KI wird diesen Trend jedoch durchbrechen.
Das zweischneidige Schwert der großen Sprachmodelle (LLMs)
Generative KI, die auf großen Sprachmodellen (LLMs) basiert, verbraucht Energie in zwei unterschiedlichen Phasen:
- Ausbildung: In dieser ersten Phase werden Terabytes von Daten durch Algorithmen gejagt, damit diese den Kontext lernen und Muster vorhersagen können. Traditionell war dies der energieintensivste Schritt.
- Inferenz (Verarbeitung): Reagieren auf Benutzeraufforderungen. Da LLMs nun in großem Umfang eingesetzt werden, ist die Inferenz zum dominierenden Energieverbraucher geworden. Sie macht 60% bis 70% der von generativen KI-Systemen verbrauchten Energie aus, verglichen mit 30% bis 40% für das Training.
Die Auswirkungen dieses Wandels auf die Umwelt sind erheblich. Eine einzige ChatGPT-Suchanfrage verbraucht etwa 3 Wh Strom, zehnmal mehr als eine herkömmliche Google-Suche (0,3 Wh). Würden alle neun Milliarden täglichen Google-Suchanfragen auf ChatGPT umgeleitet, würde dies den jährlichen weltweiten Strombedarf um 10 TWh erhöhen. Goldman Sachs Research (GSR) geht davon aus, dass der Stromverbrauch von Rechenzentren in den nächsten fünf Jahren um 160% ansteigen und 3% bis 4% des weltweiten Stromverbrauchs erreichen wird, wobei sich die Kohlenstoffemissionen bis 2030 verdoppeln könnten. Allein die KI-bedingte Stromnachfrage in Rechenzentren wird zwischen 2023 und 2030 schätzungsweise um 200 TWh pro Jahr steigen und bis 2028 fast 19% der Energie für Rechenzentren ausmachen.
Cubero-Castan warnt eindringlich: "Wenn wir anfangen, generative KI-Technologie in großem Maßstab und mit immer größeren LLMs einzusetzen, werden die daraus resultierenden Energiegewinne bei weitem nicht ausreichen, um eine Reduzierung der gesamten Kohlenstoffemissionen zu erreichen."
Die Hürden meistern: Effizienz, Ressourcen und Infrastruktur
Obwohl die Energiekurve der KI steil zu sein scheint, bieten mildernde Faktoren und laufende Innovationen einen Hoffnungsschimmer. Unternehmen wie das chinesische Unternehmen DeepSeek entwickeln bereits energieeffizientere generative KI-Programme. Der endliche Vorrat an Bergbauressourcen, die für die Produktion von KI-Chips entscheidend sind, könnte das Wachstum natürlich ebenfalls bremsen. Nvidia, mit einem Marktanteil von 95% bei KI-Chips, verbrauchte mit seinen drei Millionen H100-Chips im Jahr 2024 13,8 TWh. Prognosen für 2027 zeigen, dass dieser Wert auf 85-134 TWh ansteigen könnte, was Fragen zur Skalierbarkeit der Produktion und zu den Umweltauswirkungen aufwirft.
Außerdem stehen die bestehenden Stromnetze unter enormem Druck. In Regionen wie Irland (20%) und Virginia, USA (über 25%), entfallen bereits erhebliche Anteile des nationalen Energieverbrauchs auf Rechenzentren. Der Bau weiterer Rechenzentren in wasser- und stromarmen Gebieten ist, wie Cubero-Castan anmerkt, "nicht immer die nachhaltigste Wahl". Die schieren finanziellen Kosten für den Ausbau der KI-Infrastruktur, wie z. B. der Bedarf von Google an 400.000 zusätzlichen Servern für generative KI-Abfragen mit einem Kostenaufwand von $100 Milliarden, stellen ebenfalls ein erhebliches Hindernis dar.
Das ungenutzte Potenzial: KI als Katalysator für den grünen Wandel
Trotz ihres inhärenten Energiehungers birgt die KI ein immenses Potenzial, um weitere Energieeinsparungen zu erzielen und den Klimawandel zu bekämpfen. Wie vom Weltwirtschaftsforum und Deloitte hervorgehoben, kann KI ein mächtiges Werkzeug für das Gute sein:
- Innovation im Energiesektor: KI kann Durchbrüche in den Bereichen erneuerbare Energien, intelligentes Netzmanagement und Energiespeicherung beschleunigen.
- Prädiktiver Konsum: Durch die Analyse von Mustern kann KI den Nutzern und Versorgern helfen, den Energieverbrauch besser vorherzusagen und zu reduzieren und die Ressourcenzuweisung zu optimieren.
- Operative Effizienz: In der Industrie kann KI Prozesse rationalisieren, was zu einem effizienteren Ressourcenmanagement und weniger Abfall führt.
- Fortgeschrittene Forschung: Ingenieure können KI für komplexe Simulationen nutzen und so Fortschritte bei der Modellierung, der Klimaökonomie, der Bildung und der Grundlagenforschung erzielen.
Die Rechenzentren der nächsten Generation werden mit verbesserter Energieeffizienz und flexibler Kapazität konzipiert. Nvidia arbeitet aktiv an der Verbesserung der Chipleistung bei gleichzeitiger Senkung des Energiebedarfs. Die IEA stellt fest, dass 40% des Stroms in Rechenzentren allein für die Kühlung benötigt werden. Initiativen wie die "Heating Bits" der EPFL erforschen neuartige Kühlmethoden, Wärmerückgewinnung, Kraft-Wärme-Kopplung und die Integration erneuerbarer Energien. Auch das Quantencomputing zeichnet sich als zukünftiges, potenziell effizienteres Paradigma ab.
Jenseits der Technik: Die Bedeutung der digitalen Hygiene
Eine der vielleicht einfachsten und wirkungsvollsten Möglichkeiten, den Stromverbrauch von Rechenzentren zu senken, wird oft übersehen: digitale Entrümpelung. Unternehmen weltweit erzeugen täglich 1,3 Billionen Gigabyte an Daten, von denen ein Großteil zu "dunklen Daten" wird - gespeichert, aber nie genutzt. Forscher schätzen, dass heute 60% an Daten in diese Kategorie fallen, deren Speicherung so viel Kohlenstoff ausstößt wie drei Millionen Flüge von London nach New York. Veranstaltungen wie der Digital Cleanup Day unterstreichen die dringende Notwendigkeit für Einzelpersonen und Organisationen, ihren digitalen Abfall zu beseitigen.
Letztendlich dürfen die Auswirkungen der generativen KI auf den Energieverbrauch nicht übersehen werden, da sie zu dem bereits beträchtlichen Stromverbrauch digitaler Technologien wie Videostreaming, Online-Spiele und Kryptowährungen hinzukommt. Die globale Energienachfrage wird in erster Linie durch das Wirtschaftswachstum, Elektrofahrzeuge, Klimaanlagen und das verarbeitende Gewerbe bestimmt, die immer noch weitgehend auf fossile Brennstoffe angewiesen sind.
Wie Manuel Cubero-Castan weise schlussfolgert: "Die Senkung unseres Verbrauchs und die Erhöhung der Lebensdauer und Effizienz unserer Infrastruktur sind nach wie vor unerlässlich." Die wahre Herausforderung besteht darin, die transformative Kraft der KI zu nutzen, um eine effizientere und nachhaltigere Welt zu schaffen und gleichzeitig ihren eigenen wachsenden ökologischen Fußabdruck sorgfältig zu verwalten und zu verringern.
- Wir können Ihnen helfen, FADP-konform zu werden!
Fachkundige Beratung, erschwingliche Lösungen und ein nahtloser Weg zur Einhaltung der Vorschriften