Roboter ersetzen Banker, Kreditkarten das Bargeld.
Roboter ersetzen Banker, Kreditkarten das Bargeld.
© EPA/GEORGIOS KEFALAS

Serie

Künstliche Intelligenz ist oft nur vorgetäuscht

Für Ray Kurzweil ist der Weg in Richtung Singularität vorgezeichnet. Sein Gesetz des sich beschleunigenden Nutzens würde bedingen, dass exponentiell zunehmende Rechenkraft irgendwann in intelligenten Computern mündet. „Man braucht die Kurve nur weiter in die Zukunft zu zeichnen“, erklärt Kurzweil in seinen Vorträgen immer wieder. Alles, was sich an die Gesetze der Physik hält, ließe sich auf Computern simulieren - also auch das Gehirn.

Immer noch Blechtrottel
An der Frage, was menschliche Intelligenz ausmacht und ob genau diese notwendig ist, damit Computer einen Sprung in die Zukunft machen, daran scheiden sich die Geister. Rechner werden fraglos schneller, zeigen ihre Stärken aber weiterhin nur innerhalb spezieller Einsatzszenarien. Nach Ansicht von Kritikern der künstlichen Intelligenzforschung (Artificial Intelligence: AI) ist die Technologie hinter IBMs Supercomputer Watson nicht mehr als ein besonders schneller Abgleich mit einer riesigen Datenbank vorhandenen Wissens. Toronto im Jeopardy!-Spiel für eine US-Stadt zu halten, wenngleich mit fünf Fragezeichen, sei ein Lapsus, der menschlichen Quizzern nicht passieren würde, so die Argumentation.

Die Liste an Argumenten, die Computer als Blechtrottel abqualifizieren soll, ist weiterhin lang. AI-Kritiker und Philosoph Hubert Dreyfus bringt es in seinem Buch „What Computers Still Can‘t Do“ auf den Punkt: Computer befinden sich in keiner Situation, sie erkennen daher auch keine Zusammenhänge innerhalb einer solchen. Maschinen folgen Regeln, Menschen wissen zumeist, wann diese besser umgangen werden; Maschinen kennen weder Intuition noch Kreativität, sie wenden lediglich Wahrscheinlichkeiten an einem vorher festgelegten Informationspool an.

Tatsächlich aber kann Watson aus natürlicher Sprache Bedeutungen ableiten. Es ließe sich demnach argumentieren, dass der Supercomputer damit eine Art erste Vorstufe zu situationsabhängiger Intelligenz zeigt. Und auch Kleinkinder durchschreiten ihre Welt zunächst ohne besonderes Verständnis für Zusammenhänge. Dieses bildet sich erst nach einem Lernprozess heraus.

Über Intuition zu Intelligenz
Gehirnforscher und Unternehmer Jeffrey Stibel beschreibt in seinem Buch „Wired for Thought“ Intuition als das Überwinden von Unzulänglichkeiten des Gehirns: weil dieses Daten nicht so schnell verarbeiten kann wie Computerprozessoren. Wer zum Beispiel beim Wandern auf ein gewundenes Objekt stößt, würde kurzerhand zur Seite springen, ohne vorher lang zu verifizieren, ob es sich tatsächlich um eine Schlange handelt. Das Gehirn schickt Befehle an den Körper, sich blitzartig zu bewegen, noch bevor das Bewusstsein zwischen Schlange, Seil oder einem Aststück unterscheidet. „Es verwendet Mustererkennung, um anhand weniger Daten rasch zu entscheiden, und dieser Prozess ist der Kern menschlichen Denkens“, schreibt Stibel.

Ein paar Seiten später streicht Stibel die Ähnlichkeiten zwischen dem Gehirn und dem Internet heraus. Beide würden über dezentralisiertes Computing und parallele Datenverarbeitung funktionieren, und könnten damit mehrere Dinge gleichzeitig erledigen. Doch die Entsprechungen haben ihre Grenzen. Computer arbeiten fokussiert, das menschliche Gehirn nicht. „Das Gehirn sucht, macht einen Schritt zurück, grübelt, und wirft schließlich unzusammenhängende Gedanken über Ihren Einkaufszettel dazwischen“, so Stibel. Diese rekursive und sprunghafte Funktionsweise hängt für Stibel mit „echter Intelligenz“ zusammen. Geht es darum künstliche Intelligenz zu schaffen, müsste genau dieser „gewundene, schrittweise“ Prozess zum Einsatz kommen. Was damit zusammenhängt, erinnert vorsichtig an HAL: eine Maschine, die sich ihre Prozesse selbst erklären, über diese nachdenken sowie aus Wiederholung und Fehlern lernen kann.

Der Turing Test
Der britische Mathematiker Alan Turing wollte 1950 die Frage beantworten, ob Computer denken können. Sein Artikel "Computing Machinery and Intelligence" gilt als eine der Gründungsschriften der AI-Forschung. Turing beschreibt darin einen Test, bei dem Menschen und Computer einer Jury gegenüber ihre Menschlichkeit unter Beweis stellen sollen. Seit 1991 findet ein Turing-Test im Rahmen des sogenannten Loebner-Preises statt. Personen und Software unterhalten sich dabei mittels Chat mit einer menschlichen Jury. Kann ein Programm zehn Preisrichter über drei Stunden beliebige Unterhaltung hinweg täuschen, wird ein Preisgeld von 100.000 Dollar vergeben. Ausgezeichnet werden beim Loebner-Preis jedes Jahr auch die ersten drei Sieger nach Punkten, die „Most Human Computer“. Jene Person, die im Gespräch am menschlichsten wirkt, wird zum „Most Human Human“ gekürt. Wired-Redakteur Charles Platt, der den Titel 1995 gewann, beschreibt in seinem Bericht die Vorgehensweise: „Indem ich launisch, gereizt und unausstehlich war.“

Sexratgeber und schlagfertige Chatbots
Turing, der 1954 verstarb, vermutete, dass Computer bis zum Jahr 2000 ein Drittel der Jury nach nur fünf Minuten getäuscht haben sollten. Geschafft hat den Turing-Test bisher noch keine Software. 1994 etwa, als sich Platt zum menschlichsten Menschen grantelte, wurde eine Software des Kanadiers Thomas Whalen zum Punktesieger gewählt. Whalens Programm sollte schüchternen Leuten Sex-Ratschläge geben. Auf Menschlichkeit hatte er damit nicht abgezielt. Auf die Frage nach der effizientesten Verhütung etwa - mit einem Rechtschreibfehler im Wort Verhütung - antwortet das Programm schlicht: Darauf kann ich dir keine Antwort geben. Die Anzahl der möglichen Antworten lag bei 380.

Gut zehn Jahre später spielen die Teilnehmer bereits in einer ganz anderen Liga. Die Unterhaltungen zwischen Software und Preisrichtern wirken mitunter schlagfertig und gekonnt doppeldeutig. 2008 kommt es zum bisher knappsten Ergebnis. Die Software Elbot, die der Programmierer Fred Roberts gemeinsam mit dem schwedischen Unternehmen Artificial Solutions entwickelte, verfehlte die Turing-Hürde um nur eine einzige Jurystimme (zum Transkript: PDF).

Doch auch der Turing-Test hat seine Kritiker. Der Bewerb soll zu einem bloßen Chatbot-Kräftemessen verkommen, heißt es. Es ginge vielmehr um Tricks, mit denen Menschlichkeit vorgetäuscht wird, anstatt um den Versuch, tatsächlich intelligente Software zu entwickeln.

Genetische Programmierung
Einen anderen Ansatz in Richtung intelligenter Software verfolgen Wissenschafter vom Cornell Computational Synthesis Lab an der gleichnamigen US-amerikanischen Universität. Der Bioinformatiker Hod Lipson und sein Doktorand Michael Schmidt programmierten eine Software, die anhand von Rohdaten eines schwingenden Pendels bestimmte physikalische Gesetze erkennt, ohne davor über Physik- oder Geometriegrundlagen zu verfügen. Zum Einsatz kam bei dem Programm die sogenannte genetische Programmierung. Die Software nähert sich dabei mittels Zufallsvermutungen und anschließender Neuanordnung der Theorien der Lösung. Das Prinzip lehnt sich an die Evolution an, wo ebenfalls vergleichsweise einfache, immer gleiche Steuerungsmechanismen (Mutation, Rekombination, Selektion)verwendet werden, um komplexe Organismen zu verändern.

Wenngleich die Software der Cornell-Forscher vielversprechende Ergebnisse liefert, kann sie freilich nicht als intelligent bezeichnet werden. Brian Christian, Autor des kürzlich erschienenen AI-Buchs „The Most Human Human“, zitiert darin den Kognitions- und Computerwissenschafter Douglas Hofstadter: „Manchmal scheint es, dass wir mit jedem neuen Schritt in Richtung künstlicher Intelligenz etwas herausfinden, was wirkliche Intelligenz nicht ist, anstatt etwas zu schaffen, das nach Ansicht aller tatsächliche Intelligenz ist.“

Der dritte Teil der Serie „Mythos Singularität“, der am Freitag erscheint, führt zur Genetik: lässt sich der Mensch als Maschine betrachten und ist langes Leben lediglich eine Frage von gründlicher Wartung?

Mehr zum Thema

Links:
Alan Turing, „Computing Machinery and Intelligence“ (PDF)

Gewinner und Transkripte des Loebner-Preises
Der nächste Turing-Test im Rahmen des Loebner-Preises findet am 19. Oktober an der britischen University of Exeter statt

Cornell Computational Synthesis Laboratory

Science-Paper der Cornell-Wissenschafter Lipson, Schmidt:
Distilling Free-Form Natural Laws from Experimental Data“, Science, Vol. 324, April 3, 2009 (kostenpflichtig)

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare