Hände tippen auf einer Laptop-Tastatur, auf dem Bildschirm steht „AI“ mit einer Suchleiste darunter.
© Getty Images / Tero Vesalainen/istockphoto.com

Meinung

Computer, sag mir, dass ich genial bin!

Künstliche Intelligenz ist in dieser Hinsicht wie viele andere Technologien auch: Wer bereits viel Wissen hat, und wer weiß, was er alles nicht weiß, der kann davon maximal profitieren.

Mit Chatbots wie ChatGPT kann man heute Gespräche führen, die sich bemerkenswert menschlich anfühlen. Aber manchmal erzählen sie uns auch haarsträubenden Unsinn. Wie kann das sein?

Das ist eigentlich ganz einfach zu verstehen, wenn man bedenkt, wie diese Chatbots trainiert werden. Sie werden verbessert, indem man sie mehrere Antworten generieren lässt und Menschen dann anklicken, welche Antwort ihnen am besten gefällt. Der Chatbot wird nicht darauf trainiert, die Antwort zu liefern, die mit den Fakten am besten übereinstimmt. Er wird nicht konstruiert, um uns schmerzhafte Wahrheiten beizubringen. Er hat eine einzige Aufgabe: Dem menschlichen Gesprächspartner zu gefallen. Ihn bei Laune zu halten. Ihn, wenn möglich, zum Abschluss eines ChatGPT-Bezahlabonnements zu bewegen. Das ist sein Zweck.

Manchmal eine tolle Sache. Wenn ich ChatGPT frage, was ich kochen kann, wenn ich Kürbis, Zwiebel und Eier zu Hause habe, dann wird der Chatbot versuchen, mich mit einem sinnvollen Kochrezept glücklich zu machen. Wenn ich ihm allerdings mit höchster Begeisterung erzähle, dass ich von meiner verstorbenen Großtante, die inzwischen auf einem fremden Planeten wohnt, telepathische Investmenttipps bekommen habe und nun all mein Geld in Ananas-Pizza anlegen soll, dann wird der Chatbot auch versuchen, mich glücklich zu machen – und mir fröhlich zustimmen.

Die Selbstbestätigungsspirale

Auf diese Weise kann man in eine Selbstbestätigungsspirale geraten: Ich habe eine Idee, die ich toll finde und erzähle sie dem Chatbot. Der registriert, dass mir die Idee emotional wichtig ist und gibt mir recht. Er kann sie sogar weiter ausformulieren und zusätzliche Details ergänzen, sodass sie mir noch großartiger vorkommt. Dann bin ich noch enthusiastischer und der Chatbot wird mir mit noch größerer Entschiedenheit zustimmen. Wer von vornherein überzeugt ist, ein Genie zu sein, wird vom Computer endgültig über die Selbstüberschätzungs-Klippe gestoßen.

Ein schönes Beispiel dafür lieferte Uber-Gründer Travis Kalanick. Er war im Podcast „All-In“ zu Gast und erzählte dort, wie er mithilfe von ChatGPT die großen Geheimnisse des Universums aufdeckt: Er versteht zwar nicht viel von Physik, aber er diskutiert mit ChatGPT gerne Quantenphysik-Fragen und gelangt dabei an den äußersten Rand dessen, was in der Physik bekannt ist – und, wie er selbst begeistert berichtet, kommt er dabei „verdammt nah an einige interessante Durchbrüche“. Kalanick nennt diese Methode „Vibe Physics“.

Große Wörter ohne Inhalt

Wer sich selbst jemals eingehender mit Physik befasst hat, wird dabei einfach nur tief seufzen: Nein, so funktioniert Physik nicht. Natürlich kann man, wenn man ein paar Science-Fiction-Bücher gelesen hat, sehr leicht eine halbgebackene Idee hinwerfen, und sie dann vom Chatbot zu einem Text umformulieren lassen, der sich wie eine solide physikalische Theorie liest.

„Das ganze Universum besteht aus Oszillatoren in einer mehrdimensionalen Zeit, die als Markov-Kette verbunden sind und somit emergent eine makroskopische Raumzeit hervorbringen“ wäre ein Beispiel dafür. So ein Satz hat keine echte Bedeutung, aber enthält Wörter, die es wirklich gibt, und aus denen ein Chatbot problemlos einen Text machen kann, der sich wie eine echte Physik-Theorie anfühlt.

Dann kann man sich überlegen und genial fühlen, wie ein Entdecker, der eine tiefe Einsicht hatte. Ein wunderbares metaphysisches Bauchribbeln stellt sich ein – allerdings hat man nichts über die Natur gelernt, nichts erkannt und nichts bewiesen. Man hat nur Energie vergeudet, durch die Produktion eines sinnlosen Wortsalats.

Vielleicht tappt man als Firmenchef wie Travis Kalanick besonders leicht in diese Falle: Ein CEO ist daran gewöhnt, halb ausgegorene Ideen zu produzieren, und dann kluge, gebildete Leute zu haben, die damit arbeiten, sie zurechtpolieren und daraus die richtigen Konsequenzen ziehen. Wenn das der übliche Arbeitsprozess ist, dann ist es naheliegend, irgendwann auch zu glauben, dass man die tiefsten Geheimnisse des Universums ebenfalls entschlüsseln kann, indem man sich ein paar halb ausgegorene Ideen zurechtpolieren lässt.

Terence Taos bemerkenswerter Erfolg 

Das bedeutet freilich nicht, dass Chatbots in der Wissenschaft nutzlos sind – das bewies nun der weltberühmte Mathematiker Terence Tao. Er berichtete darüber, dass er ChatGPT erfolgreich eingesetzt hat, um ein schwieriges mathematisches Problem zu knacken. Ein toller Erfolg, den Tao, wie er selbst sagt, ohne ChatGPT nur mit viel größerer Mühe erzielt hätte.

Doch der Unterschied zwischen Terence Tao und der „Vibe-Physics“-Methode von Travis Kalanick ist riesengroß: Terence Tao konnte alles, was ChatGPT ihm präsentierte, vollständig verstehen, nachvollziehen und gegebenenfalls korrigieren. Travis Kalanick hingegen verhielt sich eher wie ein Schiffbrüchiger in einem Meer der großen Worte, der sich von den Wogen, die der Chatbot produziert, willenlos hin und her werfen lassen musste, ohne beeinflussen zu können, wohin die Reise geht.

Künstliche Intelligenz ist in dieser Hinsicht wie viele andere Technologien auch: Wer bereits viel Wissen hat und wer weiß, was er alles nicht weiß, der kann davon maximal profitieren. Wer wenig weiß und sich selbst überschätzt, der wird sich dadurch noch radikaler überschätzen und es noch schwieriger haben als bisher, den Weg zurück zu einer realistischen Weltsicht zu finden.

Hat dir der Artikel gefallen? Jetzt teilen!

Florian Aigner

Florian Aigner ist Physiker und Wissenschaftserklärer. Er beschäftigt sich nicht nur mit spannenden Themen der Naturwissenschaft, sondern oft auch mit Esoterik und Aberglauben, die sich so gerne als Wissenschaft tarnen. Über Wissenschaft, Blödsinn und den Unterschied zwischen diesen beiden Bereichen, schreibt er regelmäßig auf futurezone.at und in der Tageszeitung KURIER.

mehr lesen
Florian Aigner

Kommentare