Künstlerische Darstellung zeigt neuronales Netzwerk
Getty Images/Andriy Onufriyenko
CO2-Fußabdruck

Die dunkle Seite der KI

Künstliche Intelligenz (KI) ist momentan nicht aus den Schlagzeilen wegzudenken, vor allem die computergenerierten Texte von ChatGPT sorgen international für Aufsehen. Das hat zu einem regelrechten Wettlauf der KI-Riesen geführt – der auch zulasten der Umwelt geht, denn der Stromverbrauch der verschiedenen KIs ist enorm. Schnelle Abhilfe gibt es keine, sagen Fachleute.

Die Großen der Branche lassen keine Zweifel: KI ist die Zukunft. Erst kürzlich haben etwa Google und Microsoft ihre Pläne vorgestellt und dabei künstliche Intelligenz in den Mittelpunkt gerückt. Die Riesen investieren Milliardenbeträge, um einander zu übertrumpfen.

Die Systeme werden mit noch mehr Daten befüllt und werden dadurch noch aufwendiger – die Resultate faszinieren Userinnen und User. Vor wenigen Jahren wäre es noch undenkbar gewesen, mit einer KI über komplexe Themen zu „plaudern“ – heute scheint es, als wüsste ChatGPT praktisch alles, auch wenn oft nur der Schein bleibt und sich letztlich so manche Antwort als faktisch falsch herausstellt.

KI-Riesen schweigen zu konkreten Daten

Doch die komplexen KI-Systeme gehen mit enormen Kosten einher: Zuerst müssen sie nämlich aufwendig „trainiert“ werden, ein Prozess, der Monate dauern kann und ganze Rechenzentren auslastet. Das verursacht einen entsprechenden Stromverbrauch – der sich letztlich auf die Umwelt auswirken kann.

Der Schriftzug „Welcome to Chat GPT“ auf dem Bildschirm eines Computers
IMAGO/Silas Stein
Wie viel Strom ChatGPT genau verbraucht, können Forscherinnen und Forscher nur schätzen

Der Einfluss lässt sich allerdings oft nur schwer nachweisen: Denn während Großkonzerne mit den Ergebnissen ihrer KIs gerne angeben, wird zur Entstehungsphase praktisch nichts veröffentlicht. In der Forschung sei es daher „sehr schwierig, konkrete Nachweise“ für den Stromverbrauch derartiger Systeme zu finden, sagte Ivona Brandic, die sich an der Technischen Universität (TU) Wien unter anderem mit dem Energieverbrauch und der Nachhaltigkeit von KI-Systemen beschäftigt, im Gespräch mit ORF.at.

Studie: 17-facher Jahresverbrauch eines US-Amerikaners

Sie verweist auf eine der wenigen begutachteten Studien zu dem Thema, die sich mit den CO2-Emissionen derartiger KIs beschäftigt: Das Training eines einzelnen Modells würde der Studie zufolge so viel Emissionen verursachen wie ein Durchschnittsamerikaner in 17 Jahren – oder in etwa so viel wie gut 300 Flüge von New York nach San Francisco.

Bei Werkzeugen wie ChatGPT können Forscherinnen und Forscher nur Vermutungen anstellen, weil es etwa zu der bei ChatGPT im Hintergrund werkenden KI GPT-3 keine belastbaren Daten gibt. Eine Untersuchung, die das Magazin „Wired“ zitiert, sieht einen Verbrauch von über 1.200 Megawattstunden und so viel CO2-Emissionen wie 550 Flüge zwischen New York und San Francisco. Je mehr die KI können soll, desto mehr Strom frisst sie letztlich.

Standort spielt entscheidende Rolle

Brandic verweist darauf, dass die Schätzung der tatsächlich entstandenen Emissionen besonders schwierig sei, weil nicht immer klar ist, wo die KI „trainiert“ wird – dabei gehe es wirklich um „die geografische Location des Rechenzentrums“, so Brandic. Denn je nach Erdteil könne es sein, dass der Strom zu 100 Prozent grün sei, aber auch zu 100 Prozent aus fossilen Quellen stamme.

Rechenzentrum
Getty Images/iStockphoto/Vladimir Timofeev
In Rechenzentren werden Unmengen an Strom verbraucht – umso entscheidender ist die Quelle

Zwar arbeiten Konzerne wie Google, Microsoft und der Marktführer in Sachen Cloud, Amazon, konstant daran, ihre Rechenzentren mit grüner Energie zu betreiben. Noch ist man aber zumindest ein paar Jahre davon entfernt, ausschließlich grüne Rechenzentren zu betreiben – vor allem in Ländern, in denen erneuerbare Energien keine oder nur eine untergeordnete Rolle spielen.

Herkömmliche Computer geraten an ihre Grenzen

Neben einem anderen Energiemix stellt sich darüber hinaus die Frage, ob man nicht auch den allgemeinen Stromverbrauch der KI reduzieren könnte – nicht zuletzt geht der Trend ja in Richtung immer komplexerer Modelle. Die TU-Expertin verweist darauf, dass herkömmliche Computer, die seit Jahrzehnten nach dem gleichen Prinzip arbeiten (Von-Neumann-Architektur), nicht für KI-Aufgaben gemacht sind.

Aber mit Quantencomputern und neuromorphen Computern stehen schon neue Technologien in den Startlöchern, die „ganz anders arbeiten“ und dadurch auch bei der Energieeffizienz viel besser dastehen. Neuromorphe Computer nehmen sich das menschliche Gehirn zum Vorbild – und sind für Einsatzzwecke wie KI besser geeignet. Brandic sagt, dass schon heute im Forschungsbereich damit gearbeitet werden kann, auch bei Quantencomputern habe sich in den letzten Jahren viel getan.

Teurer Spaß für die Netzgiganten

Doch selbst wenn diese Rechner großflächig kommerziell eingesetzt werden können, heißt das nicht, dass der Stromverbrauch zu vernachlässigen ist. Denn letztlich geht es nicht nur um die Trainingsphase der KI, sondern auch um den tagtäglichen Einsatz, also der Moment, in dem man ChatGPT und Co. tatsächlich Fragen stellen kann. Dort spielen aber zusätzlich andere Faktoren eine Rolle. So fällt etwa der Weg vom Rechenzentrum auf den Bildschirm ins Gewicht, weil auch der Datentransfer Kosten und Stromverbrauch verursacht.

Für die zwei Konkurrenten Google und Microsoft könnte das alles zusammen kostspielig werden: Denn allein ChatGPT hatte im Jänner rund 100 Millionen Nutzerinnen und Nutzer. Die zwei Suchmaschinen Google und Bing, die ihre jeweiligen KI-Projekte dort nun direkt integrieren wollen, haben aber um ein Vielfaches mehr Nutzer. Vor allem die benötigte Rechenleistung wird wohl deutlich steigen – für das Wettrüsten der Giganten wird das aber offenbar in Kauf genommen.

Wie smart muss der Alltag sein?

Grüne Energie, neue Computerarchitekturen – und trotzdem ist der Energieverbrauch nicht außer Acht zu lassen. Die Expertin von der TU sagt, es „ist für uns in der Forschung wahnsinnig wichtig hervorzuheben: Dieser Strom wurde früher nicht gebraucht.“

Je mehr KI im täglichen Gebrauch ankommt, desto mehr Strom wird das kosten – hier stellt sich für sie die Frage: „Was muss tatsächlich alles über eine KI laufen?“ Dem Handy Texte diktieren, ChatGPT als virtueller Gesprächspartner – und dann auch noch jede Suchanfrage von einer KI auswerten lassen: Brandic sieht hier auch die Bildung in der Pflicht: „Wir müssen erzogen werden, wie KI zu benutzen ist – in einer guten Art und Weise.“

So faszinierend der Hype sein mag, Nutzen und Schaden für die Allgemeinheit müssen künftig wohl genau beobachtet werden. Rechenzentren – nicht nur die KIs, die dort laufen – sind insgesamt für 1,3 Prozent des globalen Strombedarfs verantwortlich, schätzt die Internationale Energieagentur (IEA). Wenn schon nicht in erster Linie für die Umwelt, werden die Netzgiganten langfristig wohl dennoch stromsparende Alternativen suchen, um ihre eigenen Kosten möglichst gering zu halten.