© Scheutz

Künstliche Intelligenz

"Wir wollen ja keinen Menschen nachbauen"

Matthias Scheutz ist Associate Professor für Kognitions- und Computerwissenschaft an der Tufts University unweit von Boston und Direktor des dortigen Human-Robot Interaction Laboratory. Die Forschungsinteressen des Österreichers reichen von künstlicher Intelligenz, über zentrale Fragen der Kognitionswissenschaft wie etwa Embodiment (Intelligenz setzt einen Körper und physische Interaktion voraus) - bis hin zu Robotertechnik.

Futurezone traf den Wissenschafter nach einem Vortrag an der University of North Carolina at Charlotte, wo Scheutz über kognitive Modellierung sprach: den Versuch, Denk- und Entscheidungsprozesse mit Algorithmen nachzustellen, zu studieren und vorherzusagen.

Futurezone: Sie haben in Ihrem Vortrag die Wissenschafter Arturo Rosenblueth und Norbert Wiener zitiert, die 1945 in ihrem Paper “The Role of Models in Science” sagen, dass das beste Modell für eine Katze eine andere Katze oder noch besser dieselbe Katze sei. Ist das nicht frustrierend?
Ich verstehe Ihre Frage nicht.

Kommen Sie bei der kognitiven Modellierung ohne die Komplexität einer ganzen Katze herzunehmen überhaupt zu einer sinnvollen Aussagekraft?
Auf jeden Fall. Wir machen sehr wohl Fortschritte, indem wir simplifizierende Modelle bauen. Zum Beispiel das Modell, das ich vorgeschlagen habe. Es zeigt nur einen ganz bestimmten kognitiven Effekt und dessen Funktionsweise auf, nämlich den der Imitation. Man kann aus dem Modell also Vorhersagen für ähnliche Beispiele treffen, aber etwa keine Vorhersage für Sprache. Dafür ist es nicht gebaut.

Das Modell ist eine Art Schaltplan, der die Reaktion von Menschen beschreibt, wenn ihnen Videos von gähnenden Leuten gezeigt werden: sie beginnen zu gähnen. Wofür lässt sich das Programm sonst noch verwenden?
Für andere Experimente, bei denen zwei Komponenten getestet werden, zum Beispiel für den Stroop-Effekt. Leute müssen dabei die Farben bestimmter Wörter benennen, zum Beispiel "Rot", das in Blau geschrieben ist. Dabei kommt es zu mentalen Verarbeitungskonflikten.

Aber es ist ein kleines Modell und lässt sich nicht für komplett andere Aufgaben verwenden, und das ist gut. Wir wollen ja keinen Menschen nachbauen. Es geht darum, bestimmte Funktionen und Prozesse im Menschen zu verstehen. Wenn wir die ganze Katze als Modell für die Katze hernehmen würden, hätten wir keine Chance irgendetwas zu verstehen. Natürlich gibt es einen trivialen Sinn, in dem das beste Modell einer Katze die Katze ist. Weil die Katze halt alle Eigenschaften der Katze hat. Nur ist das für die Forschung nicht sehr spannend, weil wir dann ja wieder bei Null anfangen.

Dennoch arbeiten Wissenschafter an der Nachkonstruktion des Gehirns als Ganzen. Was erwarten Sie sich davon?
Letztlich, dass wir irgendwann einmal das Gehirn begreifen. Aber ich weiß nicht, ob wir es als Ganzes verstehen. Ich kann mir gut vorstellen, dass man Teile versteht und auf einer sehr abstrakten Ebene, wie das Gehirn funktioniert. Aber es ist praktisch logisch unmöglich für das Gehirn, sich selbst komplett zu verstehen.

Wenn Menschen nachdenken, konzentrieren sie sich, schweifen ab, konzentrieren sich wieder, schauen aus dem Fenster usw. Müsste man, um eine künstliche Intelligenz zu schaffen, alles genau so nachstellen oder geht das auch anders?
Das hängt davon ab. Schachcomputer arbeiten zum Beispiel überhaupt nicht so und sind trotzdem viel besser als Menschen. Computer, die Gleichungen lösen und auf symbolische Algebra spezialisiert sind, arbeiten ebenfalls komplett anders als Menschen. Ich glaube nicht, dass es notwendig ist so zu arbeiten wie ein Mensch, sondern dass wir zumindest ein mögliches Modell finden, wie es funktionieren kann.

Ich erwarte mir in der künstlichen Intelligenz, dass es komplett andere Zugänge gibt.

Wissenschafter an der Cornell University haben eine Software entwickelt, die anhand von Daten über ein schwingendes Pendel bestimmte Gesetze der Physik erkennt. Was halten Sie davon?
Das ist ein interessanter Ansatz. Mit der dabei verwendeten genetischen Programmierung lassen sich Probleme lösen, die man nicht versteht. Danach kann man sich anschauen, welche Lösung entwickelt wurde, und bei deren Analyse lernt man auch etwas über das Problem. Mit Hilfe von High Performance Computing lassen sich mit genetischen Algorithmen gute Modelle erstellen. In der Evolutionären Robotik wird zum Beispiel genetische Programmierung verwendet, um Kontrollsysteme zu schaffen: ein Roboter sucht ein Objekt und schiebt es herum. Das sind einfache Aufgaben. Die Roboter lösen keine komplizierte Aufgaben oder verstehen Sprache.

Für wirkliche Intelligenz scheint mir der Ansatz allerdings unbrauchbar, weil es viel zu lange dauern würde und computergestützt kaum umsetzbar ist. Ich kann mir nicht vorstellen, dass man irgendwann einen Menschen mit einem genetischen Algorithmus aus dem Nichts erschafft.

Sie beschäftigen sich mit Mensch-Maschine-Interaktion unter Zeitdruck. Worum geht es da?
Roboter so zu programmieren, dass sie von Menschen gesprochene Anweisungen erhalten können. Die sollen sie verstehen und ausführen, ohne dass ihnen alles Schritt für Schritt beigebracht werden muss.

In den Anwendungsbereichen, die uns interessieren, kommt Zeitdruck als zusätzliche Komponente hinzu: bei Such- und Rettungsmissionen nach einem Tornado etwa oder bei einer nuklearen Katastrophe. Wenn man Roboter in ein Krisengebiet schickt, muss es schnell gehen. Sie müssen mit ungrammatikalischen Sätzen oder veränderten Stimmen zurecht kommen - im Stress verändert sich beim Menschen die Qualität der Stimme. Sie müssen erkennen, wann der Mensch gestresst ist und sollen ihn dann nicht mit zusätzlichen Informationen belasten. Der Roboter muss sich ein geistiges Modell davon bilden, was der Mensch will.

Wann werden wir solche Roboter zum Beispiel bei einem Szenario wie in Fukushima sehen?
Bis zum Praxiseinsatz wird es noch eine Zeit dauern. Im Großen und Ganzen sind wir ziemlich weit davon entfernt, die Roboter robust in die Welt zu setzen. Im Labor kann man schon viel machen. Aber es ist ein großer Unterschied zwischen den idealisierten Laborbedingungen und der Welt draußen. Lärm zum Beispiel, so wie hier (Durchsagen am Flughafen, Anm.), ist ein Riesenproblem für die Spracherkennung. Dazu kommen Lichtveränderungen für die visuelle Verarbeitung und unvorhersehbare Umwelteinflüsse. Auch die langfristige Autonomie von Robotern ist ein Problem.

Was meinen Sie mit langfristiger Autonomie?
Bei Robotern wird immer etwas kaputt. Wie kann der Roboter damit umgehen, dass der Motor nicht mehr so gut funktioniert oder eine Kamera defekt ist. Sie können sich ja sich noch nicht selbst reparieren. Aber wir wollen zumindest, dass der Roboter nicht einfach aufhört zu arbeiten, sondern bemerkt, dass er nicht mehr gut sieht oder hört, also nicht mehr genauso funktioniert, wie er soll.

Arbeiten Sie an Projekten, die näher am Praxiseinsatz stehen?
Mit einer anderen Gruppe arbeiten wir an einem sehr simplen System, das hoffentlich in den nächsten vier bis fünf Jahren eingesetzt wird: ein einfaches Dialogsystem, das wir auf einem Fahrzeug montieren wollen. Das kann ein Transportfahrzeug sein, dem man mit Sprache und Gestiken Anweisungen geben kann. Dabei gibt es in der Sprache und beim autonomen Verhalten nicht sehr viel Komplexität.

Wofür lässt sich das einsetzen?
Zum Beispiel, um in Katastrophengebieten medizinisches Versorgungsmaterial heranzuschaffen. Man könnte es wohl auch als intelligenten Einkaufswagen einsetzen, der einem im Supermarkt nachfährt. Aber das wäre ein bisschen teuer.

Nehmen wir an, dass beim heurigen Turing-Test ein Teilnehmer die Hürde schafft und den Test gewinnt. Würde das bedeuten, dass wir dem Thema künstliche Intelligenz näher sind oder lediglich dass jemand eine besonders gefinkelte Chatbot-Software programmiert hat?
Der Turing-Test ist an sich ein guter praktischer Test. Sprache ist wirklich eine grundlegende menschliche Komponente unserer kognitiven Architektur. Wie der Turing-Test abgehalten wird, ist eine andere Sache: er ist einfach zu kurz. Auch gehen die Fragen oft nicht in die richtige Richtung. Wenn man mit einer Maschine nur kurze Zeit interagieren kann, ist es unter Umständen schwierig herauszufinden, ob sie eine Maschine oder ein Mensch ist.

Vom programmiertechnischer Seite lässt sich zum Beispiel statistisch erheben, wie typische fünfminütige Gespräche verlaufen und was die meistgestellten Fragen sind. Dann könnte man ein Programm schreiben, das genau auf diese Art von Fragen antworten kann. Allerdings handelt es sich dann nicht um allgemeine Intelligenz, sondern es geht darum, fünf Minuten zu überleben und Leute täuschen zu können. Robert French meinte einmal, dass der Turing-Test kein Intelligenztest für die Maschine, sondern ein menschlicher Intelligenztest sei, zumal sich Fragen stellen lassen, auf die der Computer nicht antworten kann, ohne dieselben menschlichen Erfahrungen zu haben.

Was denn zum Beispiel?
Etwa die Frage nach dem Nonsenswort "flugly”. Ist es eine Bezeichnung für Spielzeug oder ein Waschmittel? Menschen haben dann Ideen, weil es phonetisch ähnlich wie "ugly" oder "fluffy" klingt. Der Grund, warum wir das beantworten können ist, weil wir gewisse Phoneme kennen (Laute mit ähnlichen Bedeutungen, Anm.). Wenn die künstliche Intelligenz diese Phonemrepräsentation nicht kennt, wird sie die Frage nicht beantworten können.

Oder nehmen wir die Beschreibung des Gefühls, wenn man mit einer Plombe auf Stanniolpapier beißt, oder in eine Erdbeere, die zwei Tage lang im Gefrierschrank war. Kleine Kinder können das beantworten. Wir verfügen über so viele Fakten, die wir nicht explizit repräsentieren, die wir aber abrufen können, wenn eine Frage gestellt wird. Aber wie viele von diesen Fakten sollen wir in einen Computer hineinstecken?

Sie haben Uniabschlüsse in Kognitionswissenschaft, Informatik und Philosophie. Bringt Ihnen die Kombination Einblicke, die andere Forscher nicht haben?
Für mich ist interessant, philosophische Fragestellungen so zu formulieren, dass ich von informatischer Seite überlegen kann, welche Prozesse ablaufen müssen, damit diese Zustände vorhanden sind. Und dann bauen wir das auf einem Roboter und schauen, ob es wirklich zutrifft oder wie wir das hinkriegen können. Die robotischen Modelle können wir dazu verwenden, die Theorie zu korrigieren und zu vereinfachen.

Kommt dabei auch Neues für die Philosophie heraus?
Durchaus. Dass einige der philosophischen Probleme, die sonst aus dem Armstuhl heraus diskutiert werden, sich anhand der robotischen Modelle besser durchdenken lassen.

Was wäre denn ein solches Problem?
Eine meiner Lieblingsfragen ist die enorme Bedeutung von Erfahrungen: dass etwas süß schmeckt und wie es schmeckt, wenn es süß schmeckt; dass Rot wie Rot ausschaut. Es gibt philosophische Meinungen, die davon ausgehen, dass die Qualität des Roterlebnisses komplett anderes ist als die Repräsentation von Rot, wie sie im visuellen Zentrum abgelegt ist.

Mithilfe einer entsprechenden Architektur und eines Roboters, der Fragen beantworten kann und rote Objekte kennt, können wir Hypothesen genau durchspielen. Und wir sind in der Lage zu zeigen, dass eine gewisse Theorie auf eine bestimmte Architektur nicht zutrifft. Weil auf Computerbasis wissen wir ja genau, was wie verarbeitet wird - was wir im Gehirn nicht genau wissen und was Philosophen daher beliebig annehmen können. Alte philosophische Fragen lassen sich neu beleuchten. Und dazu muss man natürlich wissen, was diese Fragen sind.

Mehr zum Thema

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare