Killer-Roboter müssen ohne Teslas Autopilot auskommen

Killer-Roboter müssen ohne Teslas Autopilot auskommen

© apa

Google-Forscher

"Keine Sorgen über einen Aufstand der Maschinen"

Im Rahmen der Gödel Lectures 2015 der Fakultät für Informatik der TU Wien war Googles Head of Research, Peter Norvig, zu Gast in Österreich. Die futurezone hat den Spezialisten auf dem Gebiet der künstlichen Intelligenz zum Interview getroffen. Norwig, der früher unter anderem bei der NASA beschäftigt war, ist bekannt für seinen pragmatischen Zugang zum Thema KI, glaubt aber trotzdem, dass das Feld eine große Zukunft hat. Eine KI wie sie in Form eines Betriebssystems im Spike-Jonze-Film "Her" dargestellt wird, hält Norvig in absehbarer Zeit für realistisch.

Peter Norvig
Wenn Menschen an künstliche Intelligenz denken, haben sie meist eine Version von menschlichem Bewusstsein im Kopf. Wie definieren Sie künstliche Intelligenz (KI)?
Peter Norvig:KI kommt (Erg. d. Red: Artificial Intelligence - AI im Englischen) von Artefakt, also “Kunst”, etwas künstliches. Dabei ist nicht wichtig, ob es sich um eine Imitation menschlicher Intelligenz handelt, solange der Job erledigt werden kann. Es gibt auch andere Wege, KI zu schaffen. Über menschliche Intelligenz wissen wir noch wenig.

Ist die Biologie durch neuronale Netzwerke nicht doch immer Teil der Bestrebungen KI zu verbessern?
Wir nutzen neuronale Netzwerke. Der Begriff beinhaltet aber zwei Bedeutungen. Einerseits gibt es Aspekte, die sich an der Architektur des menschlichen Hirns orientieren, für Bildbearbeitung - etwa am Sehzentrum und der Retina. Andrerseits geht es aber um mathematische Formeln und Algorithmen, die die Signalverarbeitung beschreiben. Das ist nur ein Haufen Gleichungen, da gibt es keine Biologie.

Wird es je möglich sein, eine Maschine zu bauen, die auch im menschlichen Sinn intelligent ist?
Ich sehe keine fundamentalen Hürden. Menschliche Zellen können in Software kopiert werden. In der Praxis gibt es aber eine Menge Dinge, die wir nicht können und das wird auch noch eine Weile so bleiben. Wir müssen mit dem arbeiten, was wir haben.

Könnten physikalische Grenzen ein Problem werden?
Das Mooresche Gesetz besorgt mich nicht. Wir werden neue Möglichkeiten finden. Lange Zeit haben wir die Prozessoren schneller gemacht, seit kurzem gibt es einen starken Fokus auf Effizienz, wegen Rechenzentren und Mobiltelefonen. Das wird zu Spezialisierung führen, also verschiedenen Arten von Chips. Telefone werden immer noch Allzweck Chips haben, aber vielleicht auch analoge Prozessoren.

In einigen Bereichen haben Computer Menschen ja bereits überholt.
Hier muss zwischen allgemeinen und speziellen Aufgaben unterschieden werden. Dass Computer einige Dinge besser können als Menschen, ist heute nichts ungewöhnliches mehr. An einem Taschenrechner stört sich heute niemand mehr und über die Schach-Kränkung sind wir auch hinweggekommen. Sich über solche Spezialisten-Siege aufzuregen, bringt nichts. Wir können immer eine Maschine bauen, die eine spezifische Aufgabe besser löst. Aber Menschen sind viel besser in allgemeinen Aufgaben. Wir müssen deshalb Menschen und Computer verstehen.

Ihr Google-Kollege Demis Hassabis hat kürzlich Software vorgestellt, die lernen kann, verschiedenen Computerspiele zu spielen. Weitet das den Spezialisierungsansatz nicht bereits aus?
Das ist schwierig zu sagen, die Arbeit von Demis, von einem bestimmten Spiel zu mehreren, ist schon breiter gefasst und sehr beeindruckend, aber immer noch auf eine sehr spezifische Aufgabe beschränkt.

Peter Norvig
Werden wir eine Aufweichung solcher Spezialisierungen sehen?
Wir bauen Werkzeuge, damit sie uns nutzen. Wir wollen sie möglichst vielfältig einsetzbar. Derzeit können Roboter staubsaugen, aber es wird nicht lange dauern, bevor wir Haushaltsroboter sehen, die mehr können. Das Aufgabengebiet wird sicher größer.

Damit werden die Systeme aber auch komplexer.
Das Problem ist den Usern zu erklären, wie solche Systeme genutzt werden. Ein Office-Software ist mehr oder weniger selbsterklärend. Persönliche Assistenten wie Siri hingegen nicht. Niemand weiß genau, was bei der Bedienung rauskommt. Manchmal sind die Antworten, die man erhält, sehr gut, manchmal aber auch nicht. Wir tendieren dazu, solche Systeme als Personen anzusehen, kennen aber die Grenzen nicht. Da die Systeme nicht alles können, ist eine Person kein gutes Modell.

Warum investiert Google so viel in KI?
Google hilft Nutzern, die Welt zu managen und Information zu finden. Die Suche ist schon ziemlich gut, könnte aber noch besser sein. Der erste Schritt zu einer intelligenteren Suchmaschine ist Goolge Now, aber die Nutzer müssen uns immer noch Begriffe geben und wir liefern dann passende Seiten. Wir glauben, dass wir das verbessern können. Die Ergebnisse sollten nicht aus zehn Seiten bestehen, wir wollen die Antworten für die Nutzer zusammenfassen, samt Bildern, Audiomaterial und Übersetzungen.

Ein Brief, der kürzlich von vielen Experten unterschrieben wurde, warnt vor den Folgen der Entwicklung von KI. Finden Sie das übertrieben?
Ich mache mir keine Sorgen über einen Aufstand der Maschinen. Wir mögen es, Helden und Bösewichte zu haben, und Maschinen eignen sich nun einmal hervorragend als Schurken. Das ist aber Fiktion. Den Brief nehme ich aber trotzdem ernst, unsere Ingenieure müssen lernen, KI zu beherrschen. Bei jeder neuen Technologie ist Vorsicht angebracht. Wir brauchen Sicherheitsstandards, Software hat sich in diesem Bereich bisher nicht gerade mit Ruhm bekleckert. Es gibt Druck, die Technologie schneller voranzutreiben. Wir müssen aber auf die Sicherheitsballance achten.

Welche neuen Bereiche will Google mit KI erobern?
Selbstfahrende Autos, Persönliche Assistenten und nützliche Heimroboter fallen mir da als erstes ein. KI ist derzeit dort, wo PCs in den 1970ern waren. Es gibt noch wenig sinnvolle Anwendungsgebiete. In zehn Jahren wird das anders aussehen.

Science Fiction hat die Erwartungen sehr hoch gesetzt. Können wir in absehbarer Zeit eine KI bauen, die auf dem Niveau des Betriebssystems aus dem Film "Her" ist?
Eine KI auf dem Level von "Her" können wir hinbekommen. Die Menschen sind sehr emphatisch und haben ein Bedürfnis, Dinge mit Bedeutung zu versehen. Ein Kind liebt seinen Teddybär, obwohl der nicht viel tut. Wir reden gerne mit künstlichen Objekten und sehen dann auch bereitwillig über Fehler hinweg. Die Entwicklung zu "Her" wird Schritt für Schritt passieren, ähnlich wie bei Spracherkennung, die in den vergangenen drei bis vier Jahren viel besser, wenn nicht perfekt, geworden ist - ohne konzeptionellen Durchbruch.

Hat dir der Artikel gefallen? Jetzt teilen!

Markus Keßler

mehr lesen
Markus Keßler

Kommentare