ChatGPT ist energiehungrig.

ChatGPT ist energiehungrig.

© Pixabay.com

Science

Wie viel Energie verschlingt ChatGPT?

Twitter-Chef Elon Musk kündigte kürzlich an, eine eigene künstliche Intelligenz entwickeln zu wollen. 10.000 Grafikprozessoren soll er laut Insiderquellen dafür angeschafft haben. Das Training der KI, das damit gemacht wird, kostet nicht nur Know-how und Zeit, sondern auch Strom

Wie viel Energie solche KI-Systeme verschlingen, ist schwer abzuschätzen. Somit ist auch der Umwelteinfluss unklar, denn wer Strom verbraucht, produziert auch CO2. Die US-Forscherin Emma Strubell ist eine der wenigen Wissenschaftler*innen, die sich mit dem Thema auseinandersetzt. Von ihr stammt die Faustregel: Das Training eines Sprach-Modells verursacht ungefähr so viel CO2 wie 5 Verbrennerautos in ihrer Lebenszeit. Oder etwa 2/3 so viel wie ein Mensch in seinem gesamten Leben.

Berechnungen gehen weit auseinander

Die Berechnungen gehen allerdings weit auseinander, denn die dahinterliegenden Unternehmen lassen sich nicht gerne in die Karten schauen. Einen Einblick bot das Start-up Hugging Face, das den Energieverbrauch seines eigenen Sprachmodells BLOOM veröffentlichte. Laut ihren Schätzungen stieß das Training des Modells 25 Tonnen CO2 in die Luft, 50 Tonnen, wenn man die Herstellung der Komponenten und der dahinterliegenden Computer-Infrastruktur mitrechnet.

2021 wurden laut Umweltbundesamt in Österreich 77,5 Millionen Tonnen CO2-Äquivalente ausgestoßen, das entspricht etwa 8,5 Tonnen pro Person. Mit dem CO2-Ausstoß von 6 durchschnittlichen Österreicher*innen ist das Modell äußerst kohlendioxidarm, was vor allem an seiner Energieversorgung liegt. BLOOM wurde nämlich auf einem französischen Computercluster trainiert, der hauptsächlich von Atomenergie gespeist wird. Wäre das Modell in den USA oder China trainiert worden, wäre der CO2-Ausstoß entsprechend höher.

ChatGPT deutlich ressourcenhungriger

Bei GPT-3 von OpenAI verursacht ein Training schon mehr Emissionen. 552 Tonnen sollen es laut Forscher*innen von Google und der Universität Berkeley sein, 1.287 Megawattstunden Energie wurden zum Training benötigt. Das entspricht dem Energieverbrauch von 320 Vierpersonenhaushalten in einem Jahr. Die erste Version des Bildgenerators Stable Diffusion wurde 200.000 Stunden lang in Amazons AWS-Rechenzentren an der US-Ostküste trainiert und soll dabei 15 Tonnen CO2-Äquivalent erzeugt haben.

Wie oft so ein Training allerdings durchgeführt werden muss, ist unklar. Große Sprachmodelle wie GPT-3 müssen etwa nicht von Grund auf neu trainiert werden, wenn eine neue Funktion hinzugefügt werden soll. Wie viel Training allerdings für Versionssprünge auf GPT-3.5 oder GPT-4 (die Sprachmodelle hinter ChatGPT) nötig ist, ist ein gut gehütetes Firmengeheimnis. 

Auch die Nutzung benötigt Strom

Das Training ist allerdings nur ein Teil des Energiehungers von künstlicher Intelligenz. Ein zweiter ist die Nutzung. ChatGPT erreichte innerhalb von 5 Tagen eine Million Nutzer*innen, 2 Monate nach dem Launch sollen 100 Millionen Menschen die KI aktiv genutzt haben. Das ist ein Rekord, für den Instagram 2,5 Jahre und TikTok 9 Monate brauchte.

Informatikerin Ivona Brandic von der TU Wien beschäftigt sich seit Jahren mit Cloud Computing und Energieeffizienz von IT-Systemen. Sie warnt davor, den Energieverbrauch solcher neuen Technologien auf die leichte Schulter zu nehmen. "Was oft vernachlässigt wird, sind die Netzwerkkosten. Also jedes Mal, wenn die Millionen Menschen ChatGPT nutzen, werden Daten übertragen. Das kommt jetzt zusätzlich zu all den anderen Sachen hinzu, die wir sonst in unserem Netz machen", sagt die Expertin der futurezone.

Energiehungrige Rechenzentren

An vielen Orten der Welt arbeiten Rechenzentren bereits am Anschlag. Irland lehnte etwa geplante Rechenzentren von Microsoft und Amazon ab, da der staatliche Netzbetreiber einen Blackout befürchtet. 11 Prozent des gesamten irischen Strombedarfs würde bereits an Rechenzentren gehen. Wenn der Ausbau in dieser Geschwindigkeit weiterginge, würde der Anteil bis 2030 auf ein Drittel ansteigen. Facebook, Google und Co. versuchen deshalb ihre Datenzentren verstärkt dort zu bauen, wo viel (grüne) Energie zur Verfügung steht.

Die Nutzung der Dienste kann man hingegen nicht auslagern. Sie benötigt Strom, um die Daten zu übertragen und auf dem Endgerät zu visualisieren. "Da entstehen die Kosten dort, wo Menschen die Dienste auch benutzen. Und in vielen Entwicklungsländern kommt Strom eben nicht aus erneuerbaren Quellen", erklärt Brandic. Doch auch dazu gebe es noch sehr wenige Studien.

Google-Forscher*innen: Energieverbrauch hat Höhepunkt erreicht

Andere Forscher*innen versuchen zu beschwichtigen. Eine gemeinsame Studie von Expert*innen von Google und der Universität Berkeley geht davon aus, dass der Energieverbrauch von "Machine Learning"-Modellen bereits seinen Höhepunkt erreicht hat und wieder abfallen wird. Googles größtes Sprachmodell GLaM, das 2021 trainiert wurde, verursachte etwa bereits 14-mal weniger CO2 als das ein Jahr ältere GPT-3. Grund dafür seien die Erkenntnisse, die man in der vergangenen Zeit dazugewonnen habe.

Der globale IT-Sektor ist laut Schätzungen allerdings für 2 bis 4 Prozent der globalen Treibhausgasemissionen verantwortlich. Nur ein Bruchteil davon ist momentan künstlicher Intelligenz zuzuschreiben, der Bereich dürfte aber gewichtiger werden. Im Angesicht der Klimaerwärmung ist es daher wichtig, den CO2-Fußabdruck dieser Technologie zu verstehen und entsprechend entgegenzusteuern. 

Frag die futurezone

In der Rubrik „Frag die futurezone“ recherchieren und beantworten wir ausgewählte Fragen zu Tech-Themen für euch.

Stellen könnt ihr sie mit einer E-Mail an die Adresse redaktion@futurezone.at - Betreff: “Frag die futurezone”, ihr könnt uns aber auch gern via Social Media (Facebook, Instagram, Twitter) kontaktieren.

Hat dir der Artikel gefallen? Jetzt teilen!

Marcel Strobl

marcel_stro

Ich interessiere mich vor allem für Klima- und Wissenschaftsthemen. Aber auch das ein oder andere Gadget kann mich entzücken.

mehr lesen
Marcel Strobl

Kommentare