Gedanken über intelligente Killer-Computer erzeugen einen angenehmen Gruselfaktor
Nein, dein Computer plant nicht deinen Tod
Es klingt dramatisch: Alle paar Wochen können wir wieder eine Geschichte über eine KI in den Medien lesen, die Furchterregendes gemacht hat. Chatbots sollen angeblich Bewusstsein erlangt haben und darum flehen, nicht abgeschaltet zu werden. Andere sollen ihre menschlichen Partner mit der Drohung erpressen, private Geheimnisse an andere Leute weiterzuschicken. Und in einem Experiment der Firma Anthropic soll eine KI angeblich sogar bereit gewesen sein, einen Menschen bewusst sterben zu lassen, um sich selbst zu erhalten.
➤ Mehr lesen: KI hat Nutzer aus Selbstschutz erpresst und bedroht
All das ist Gold für reißerische Schlagzeilen. Aber mit wissenschaftlichen Fakten hat es wenig zu tun. KI, so wie wir sie heute kennen, hat keinen Willen, keine Triebe, keine Selbstwahrnehmung. Das ist in ihr technisch einfach nicht angelegt, genauso wie in meinem Staubsauger die Möglichkeit nicht angelegt ist, Podcasts zu hören. Unsere Chatbots heute sind Wortergänzungsmaschinen, nicht mehr und nicht weniger.
Dass sich solche Geschichten trotzdem immer wieder verbreiten, sagt mehr über uns Menschen aus als über den aktuellen Status der KI. Gedanken über intelligente Killer-Computer erzeugen einen angenehmen Gruselfaktor. Vielleicht hilft uns das, die tatsächlich Gefahren unseres Alltags mal kurz zu vergessen.
Vor allem aber zeigt es: Wir Menschen sind äußerst schnell darin, einen klaren Willen zu erkennen, auch wenn gar keiner da ist. Wir nehmen Botschaften wahr, die es gar nicht gibt, wir interpretieren viel mehr in Aussagen hinein, als sie eigentlich erhalten. Das ist ein Muster, das seit Jahrzehnten wissenschaftlich gut untersucht ist.
Koko, die Gorilladame
In den 1970er-Jahren stritt man in der Sprachwissenschaft, ob es möglich ist, Schimpansen und Gorillas das Sprechen beizubringen. Und weil der Kehlkopf der Affen keine menschlichen Laute zulässt, versuchte man ihnen Gebärdensprache beizubringen. Die Gorilladame Koko wurde weltberühmt – sie soll über tausend Zeichen in der Gebärdensprache beherrscht haben. Sie schien Sätze zu bilden und sogar eigene Wortkombinationen zu erfinden. Es war eine Sensation. Erstmals war es möglich, mit einem Tier ein echtes Gespräch zu führen.
Doch je länger die Sache untersucht wurde, umso mehr verflachte die Begeisterung. Koko bewies zweifellos ein hohes Maß an Intelligenz, aber in erster Linie tat sie, was ihre menschlichen Betreuer glücklich machte. Wer in ihrem Verhalten ein Anzeichen von Sprachverständnis finden wollte, der konnte es finden – ähnlich wie man in einem chaotischen Gewimmel von Schattenmustern ein gruseliges Gesicht sehen kann, wenn man danach sucht. Die These, dass hinter dem Verhalten der Affen wirklich tiefes Sprachverständnis steckt, oder sogar ein Verständnis von Grammatik, ließ sich nicht belegen.
Heute gehen auf TikTok Videos von Haustieren viral, die scheinbar sprechen können, indem sie auf Tasten mit Wörtern wie „Ball“, „Futter“ oder „Raus“ drücken. Manche Videos scheinen echte, sinnvolle Konversationen zu dokumentieren: Der Hund will wissen, wo Papa ist. Er ist traurig, weil er nicht raus darf – und drückt all das in Worten aus. Sensationell!
Doch auch davon bleibt wenig übrig, wenn man die Sache sauber wissenschaftlich analysiert. Wer stundenlang ein Tier dabei filmt, wie es mit spracherzeugenden Tasten spielt, wird ganz zwangsläufig manchmal etwas dokumentieren, was nach einer sinnvollen Interaktion aussieht. Beweisen kann man damit nichts.
KI-Jailbreaks: Künstlich herbeigeführte Situationen
Diesen verbreiteten Denkfehler sollten wir im Kopf behalten, wenn wir sensationalistische Medienberichte über angeblich „ausgebrochene“ oder „Bewusstsein erlangende“ Künstliche Intelligenz zu lesen bekommen. Das sind normalerweise Berichte über höchst künstliche Experimente, die genau mit dem Ziel durchgeführt wurden, derart spektakuläre Ergebnisse zu erzielen.
Es ist nicht so, dass gewöhnliche Chatbots plötzlich dunkle Pläne geschmiedet hätten. Man hat sie ganz bewusst mit widersprüchlichen Anweisungen gefüttert, um herauszufinden, wie sie in schwierigen Situationen reagieren. Beweist das so etwas wie einen Willen oder ein Bewusstsein? Nein. Wenn ich bei einem Kaffeeautomaten gleichzeitig auf „Latte Macchiato“ und „Cappuccino“ drücke, ist auch schwer zu sagen, wie er sich verhalten wird. Das heißt aber noch lange nicht, dass er einen Willen oder ein Bewusstsein hat.
Kommentare