"Bitte" und "Danke" kosten ChatGPT mehrere Millionen Dollar

Digital Life

"Bitte" und "Danke" kosten ChatGPT mehrere Millionen Dollar

"Bitte" und "Danke" zu sagen, ist etwas, das bereits Kleinkinder eingetrichtert wird. Dieses Verhalten haben wir Menschen daher meistens tief verinnerlicht. Und so ist es für viele eine Selbstverständlichkeit, einem KI-Chatbot mit ebendiesen Freundlichkeiten zu begegnen - auch wenn man es eigentlich mit einer Maschine zu tun hat. 

Aber ist es überhaupt sinnvoll und zielführend, zu einer Künstlichen Intelligenz "Bitte" und "Danke" zu sagen? Aus finanzieller Sicht bestimmt nicht, wie Sam Altman, CEO von OpenAI erklärt. Dem Unternehmen hinter ChatGPT kosten diese beiden Höflichkeitsformen angeblich Dutzende Millionen Dollar

➤ Mehr lesen: “Bitte, liebes ChatGPT”: Warum wir zur KI so höflich sind

Rechenleistung für Höflichkeiten

Dieser Geldbetrag kommt zustande, weil die KI-Chatbots für jede Anfrage eine Berechnung anstellen und dafür in den Rechenzentren große Mengen an elektrischer Energie anfallen. Aus diesem Grund treiben "Bitte" und "Danke" die Stromkosten in die Höhe, auch wenn diese Freundlichkeiten auf den ersten Blick unnötig erscheinen mögen.

Der Ton macht die Musik

Ein respektvoller Umgangston mit einem KI-Chatbot trage allerdings dazu bei, dass die Künstliche Intelligenz ebenso respektvolle Ergebnisse liefert, gibt ein Microsoft-Manager zu Bedenken. Eine höfliche Sprache gebe nämlich den Ton für die Antwort vor, erklärt Kurtis Beavers, Design-Manager beim Windows-Konzern. 

Wie viel elektrische Leistung durch eine höfliche Sprache mit "Bitte" und "Danke" von ChatGPT aufgewandt werden muss, hat der OpenAI-CEO nicht erläutert. Ein Beispiel der Washington Post zeigt jedoch den Stromverbrauch von KI-Chatbots auf und verdeutlicht den Energiehunger der Künstlichen Intelligenz. 

➤ Mehr lesen: Die besten lokalen KI-Chatbots für iOS und Android

So viel Strom ist notwendig

Erstellt man einen 100 Wörter umfassenden Text für eine gewöhnliche E-Mail, verbraucht ChatGPT mit dem GPT-4-Modell rund 0,14 kWh. Damit könnten ungefähr 14 LED-Lampen eine Stunde lang leuchten. 

Lässt man sich von ChatGPT ein Jahr lang einmal pro Woche einen 100-Wörter-Text erstellen, sind 7,5 kWh notwendig. Das sei so viel, wie 9,3 Haushalte in Washington D.C. in einer Stunde benötigen.

Wenn sich 10 Prozent der US-Amerikaner einmal in der Woche ein Jahr lang ein Mail mit 100 Wörter von ChatGPT formulieren lassen, dann kommt das der elektrischen Leistung gleich, die alle Haushalte in der US-Hauptstadt in 20 Tagen verbrauchen.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!