© Unsplash

Meinung

ChatGPT: Der Gesprächspartner für Menschenfeinde

ChatGPT ist keine Wahrheitsfindungsmaschine, kein Recherche-Tool, kein Aussagentester – zumindest heute noch nicht

"Warum sollte man nie ein Exemplar der futurezone essen? Weil es dann in der Vergangenheit landet!" Das bekommt man, wenn man die künstliche Intelligenz ChatGPT bittet, sich einen Witz über das Onlinemagazin futurezone auszudenken. Das Ergebnis ist merkwürdig: Es fühlt sich tatsächlich an wie ein Witz, es ist aber keiner. Lustig ist hier bloß, dass ein Computerprogramm beim Versuch scheitert, lustig zu sein.

Seit einigen Wochen kann man online Unterhaltungen mit dem Chatbot ChatGPT führen, einer Computersoftware, die an gewaltigen Textmengen trainiert wurde und nun menschliche Sprache imitieren kann. Die Qualität ist atemberaubend: Mit Humor tut sich ChatGPT zwar schwer, und manche Antworten klingen vielleicht etwas schwafelig und inhaltsarm, aber die Software liefert bei einer kaum für möglich gehaltenen Vielfalt an Aufgabenstellungen sinnvolle, stimmige, fehlerfreie Texte, die sich von menschlicher Sprache nicht unterscheiden lassen.

König Charles ist ein Alien

Aber kann Software auch wirklich kreativ sein? Man kann sie Geschichten erfinden lassen – mit ganz bestimmten Vorgaben. Zum Beispiel eine Geschichte über einen Hasen und einen Küchenmixer in einer Raumstation. Das Ergebnis ist nicht unbedingt literaturpreisverdächtig, aber für eine gute Note in der Mittelschule würde es reichen.

Kann die Software die Handlung von „Der Weiße Hai“ nacherzählen – sie aber in die australische Wüste verlegen, wo ein Riesenskorpion sein Unwesen treibt? Ja, auch eine solche Aufgabe wird recht sinnvoll verarbeitet. Angenommen König Charles III wird von Außerirdischen abgeholt, und dabei stellt sich heraus, dass er selbst ein Alien ist. Wie könnte man die britische Bevölkerung in einer großen Ansprache dazu aufrufen, sich trotzdem nicht von der Monarchie abzuwenden? Die Software liefert eine in Inhalt und Ton völlig passende Rede – innerhalb von Sekunden.

Es ist schwer, sich eine Definition von „Kreativität“ zu überlegen, die von solchen Leistungen nicht erfüllt wird. Trotzdem hat man beim Gedankenaustausch mit ChatGPT nicht wirklich das Gefühl, es mit einem Menschen zu tun zu haben. Manchmal produziert die Software Fehler, die ein Mensch wohl kaum machen würde (etwa, wenn die Raumstation in der Geschichte dann plötzlich von einem Erdbeben erschüttert wird – nicht ohne den Hinweis, dass Erdbeben auf Raumstationen sehr selten sind). Manche Passagen wirken seltsam leer und uninspiriert – man spürt in seinem Gegenüber keine Persönlichkeit. Man hat ein bisschen den Eindruck: Hier ist niemand zu Hause. Aber geht uns das nicht manchmal im Gespräch mit echten Menschen genauso?

Kein Wahrheits-Werkzeug, sondern ein Text-Werkzeug

Kritisiert wurde ChatGPT, weil es manchmal falsche Behauptungen liefert. Man kann die Software wissenschaftlich klingende Texte schreiben lassen, die inhaltlich nicht stimmen. Man kann sie mathematische Textaufgaben lösen lassen – wenn die Aufgabe zu schwierig ist, bekommt man nicht etwa die Antwort „das weiß ich nicht“, sondern ein Ergebnis mit überzeugend klingendem Rechenweg, der allerdings völlig unsinnig ist.

Doch das ist kein Fehler, genau das ist die Aufgabe der Software. ChatGPT ist keine Wahrheitsfindungsmaschine, kein Recherche-Tool, kein Aussagentester – zumindest heute noch nicht. Es handelt sich einfach um eine Maschine, die menschliche Sprache nachahmt. Sie kann keine Fakten herausfinden, aber sie kann etwas präsentieren, was sich wie ein faktenbasierter Text anfühlt. Sie kann keinen guten Witz erfinden, aber sie kann etwas generieren, was sich wie ein Witz anfühlt.

Und genau das macht ChatGPT auf atemberaubend gute Weise. Wer ChatGPT nach originellen Pointen, wissenschaftlichen Fakten oder politischen Meinungen fragt, verwendet das Werkzeug falsch – als würde man mit einem Staubsauger einen Nagel einschlagen wollen. Wer aber menschenähnliche Sprache nach bestimmten inhaltlichen Vorgaben generieren möchte, erhält beeindruckende Ergebnisse.

Wir lagen alle falsch

Das wirklich Aufregende an dieser Software ist, dass sie unseren Blick auf künstliche Intelligenz durcheinanderwirbelt. Schon vor fünfzehn Jahren sagte man selbstfahrende Autos voraus. Die haben wir noch immer nicht. Stattdessen haben wir nun eine Texterzeugungsmaschine, die Aufgaben erfüllt, die man vor einigen Jahren noch zur Klasse der Problemstellungen gezählt hätte, für die Maschinen prinzipiell ungeeignet sind.

Wo kann das hinführen? Schafft es ChatGPT eines Tages, wirklich lustige Witze zu erfinden? Wird irgendwann der Literaturnobelpreis an eine Software vergeben? Wird menschliche Kreativarbeit eines Tages obsolet, weil man das Niveau der Maschinen ohnehin nicht erreicht? Oder gibt es doch gewisse menschliche Fähigkeiten, die man auch in Zukunft mit Computerprogrammen nicht nachahmen kann?

Wenn man von ChatGPT etwas lernen kann, dann das: Wir Menschen sind nicht besonders gut darin, die Möglichkeiten künstlicher Intelligenz richtig vorherzusagen. Mit Prognosen sollten wir wohl vorsichtiger sein als bisher. Es wird jedenfalls spannend.

Hat dir der Artikel gefallen? Jetzt teilen!

Florian Aigner

Florian Aigner ist Physiker und Wissenschaftserklärer. Er beschäftigt sich nicht nur mit spannenden Themen der Naturwissenschaft, sondern oft auch mit Esoterik und Aberglauben, die sich so gerne als Wissenschaft tarnen. Über Wissenschaft, Blödsinn und den Unterschied zwischen diesen beiden Bereichen, schreibt er regelmäßig auf futurezone.at und in der Tageszeitung KURIER.

mehr lesen
Florian Aigner

Kommentare