"Programme können alles, was der Mensch kann - und mehr"
Um die Erforschung künstlicher Intelligenz ist zuletzt eine heftige Diskussion ausgebrochen, nicht zuletzt weil eine Gruppe von Fachleuten zur Vorsicht gemahnt hat. Auch in Österreich wird an entsprechenden Systemen gearbeitet. Der Direktor des OFAI (Austrian Research Institute for Artificial Intelligence), Robert Trappl, erklärt der futzurezone, warum er sich eher vor schlecht auf robotische Arbeitskräfte vorbereiteten Regierungen fürchtet als vor Maschinen, die den Menschen intellektuell überlegen sind.
futurezone: Vielen Menschen ist das OFAI kein Begriff. Woran wird an Ihrer Einrichtung genau geforscht?
Robert Trappl: Das Institut ist international bekannter als in Österreich. 23 Wissenschaftler arbeiten bei uns an mehreren Schwerpunkten. Dazu gehört etwa “Intelligent Music Processing and Machine Learning”.
Was kann ich mir darunter konkret vorstellen?
Eine Frage ist, ob ein Programm Musik mit Ausdruck versehen und vielleicht sogar einen bestimmten Künstler imitieren kann. Wir arbeiten auch an der Interpretation von Meinungsumfragen in emotionaler Hinsicht. So werden Produktbefragungen mittels “Sentiment Analysis” ausgewertet. Wir erforschen auch, wie Emotionen in Gruppen im Netz entstehen und ob diese beeinflussbar sind. Und vieles mehr.
Zuletzt haben viele Experten zur Vorsicht bei der
Erforschung künstlicher Intelligenz gemahnt. Ist das ein Thema für Sie?
Noch diesen Sommer wird mein Buch erscheinen - “A construction manual for robots' ethical systems” (Eine Bauanleitung für ethische Systeme für Roboter, Anm.). Wir haben immer mehr Roboter und automatisierte Systeme, deshalb brauchen wir eine Ethik für Roboter. Das hat Isaac Asimov mit seinen drei Gesetzen der Robotik schon angebahnt.
Gibt es schon praktische Fortschritte?
Selbstfahrende Autos sind das beste Beispiel, hier muss ein System unter Umständen Entscheidungen über Leben und Tod treffen. Man sollte dabei nicht vergessen, dass das auch der Mensch tut, und zwar nicht immer perfekt. Es gab einen drastischen Fall in Kärnten im Winter, bei dem ein Schulbusfahrer einem Reh ausgewichen ist und deshalb Kinder im Bus verletzt worden sind. Das war auch eine ethische Entscheidung.
Von Maschinen wird aber meist Perfektion erwartet.
Stimmt. Eine Maschine dividiert makellos, also muss sie auch sonst unfehlbar sein.
Können Menschen und Maschinen unter diesen Voraussetzungen überhaupt zusammenarbeiten?
Vor Jahren war ich auf einer EU-Konferenz in Budapest zum Thema “future and emerging technologies”. Schon damals habe ich argumentiert, dass eine Kooperation zwischen Mensch und Maschine voraussetzt, dass die Systeme so etwas wie Persönlichkeitseigenschaften haben und auf den Menschen eingehen können.
Von einer allgemeinen KI (künstlichen Intelligenz) sind wir heute noch weit entfernt. Wie beurteilen Sie den Stand der Forschung?
In kleinen Teilbereichen vollbringen Maschinen schon große Leistungen, etwa beim Schach oder in Jeopardy. Das sind isolierte Funktionen, aber gerade Watson, der beim Jeopardy gegen Menschen gewonnen hat, muss bereits vieles können: Sprachverarbeitung, Parallelverarbeitung, Lernfähigkeit - und das alles offline.
Wie wird sich das weiterentwickeln?
Das passt heute aber noch nicht in ein Smartphone. Aber mein erster Arbeitscomputer hatte 32 KB Hauptspeicher, heute sind 128 GB in meinem Smartphone. Das ist die Entwicklung, die in einer halben Lebenszeit passiert ist. Watson wird in 20 Jahren in ein Smartphone passen.
Ist das was wir “menschliche Intelligenz” nennen das Ziel?
In den späten 90er-Jahren wurde gefragt, ob ein System Emotionen abbilden kann, weil diese Teil des Denkens und des Gedächtnisses sind. Persönlichlkeitsmodellierung ist hochinteressant. Ich habe 1997 gemeinsam mit einem Kollegen das Buch “Creating Personalities for synthetic actors” herausgegeben. Nur Intelligenz alleine gibt es nicht. Erst durch Triebe, Bedürfnisse und Verlangen sowie die Umweltrepräsentation können Tiere und Menschen Intelligenz entwickeln und Schlussfolgerungen ziehen.
Dieser Ansatz schafft große Erwartungen. War es vielleicht ein Fehler, das Wort Künstliche “Intelligenz” für die
Erforschung flexibler Systeme zu verwenden?
Ja, das war vielleicht ein Fehler. John McCarthy, der den Terminus “Artificial Intelligence” geprägt hat, wollte das als Überschrift für einen Vortrag für eine Konferenz und der Begriff hat sich hat sich gehalten.
Wird es je eine KI geben, die tatsächlich über Intelligenz im menschlichen Sinn verfügt?
Es kann sein, dass wir wie in der Physik auf eine grundlegende Unschärferelation stoßen, die genaue Aussagen über das System unmöglich macht, aber es sieht derzeit so aus, dass synthetische Systeme alles können werden, was der Mensch kann - und mehr. Ich sehe derzeit keine theoretische Grenze.
Diese Ansicht stößt in vielen Kreisen sicher auf Widerstand.
Vielleicht gibt es doch eine Seele. Aber es sieht nicht danach aus, auch wenn wir uns damit bei den Religionen keine Freunde machen.
Wie könnte der Weg zur einer echten KI aussehen und welche Risiken sehen sie?
Eine KI muss vorerst in bestimmten Nischen Dinge besser machen als der Mensch. Das war bisher ein steiniger Weg. Solche Systeme wird man zu sehr einfachen Persönlichkeiten integrieren, die bestimmte Eigenschaften haben. Eine Superintelligenz, wie sie Bostrom prophezeit hat oder eine Singularität halte ich für sehr unwahrscheinlich. Was in 100 bis 200 Jahren sein wird, weiß ich aber natürlich nicht. Viel wahrscheinlicher ist, dass in 20 Jahren 40 Prozent der heutigen Jobs von intelligenten Systemen gemacht werden. Wir sollten schon überlegen, wie wir diese Entwicklung sozial verträglich gestalten. Wenn Frankreich die Wochenarbeitszeit von 40 auf 35 Stunden senkt, reicht das nicht. Das müssten alle tun.