Indischer Verkehr als Härtetest für selbstfahrende Autos?
Indischer Verkehr als Härtetest für selbstfahrende Autos?
© EPA/PIYAL ADHIKARY

Interview

"Indischer Verkehr zeigt, was selbstfahrenden Autos fehlt"

Maschinen können mit zunehmendem technischem Fortschritt immer mehr Aufgaben erledigen. Wie der Mensch in Zukunft mit den Maschinen leben wird, diskutiert eine hochkarätig besetzte Expertenrunde bei den Technologiegesprächen beim Forum Alpbach. Die futurezone hat den Diskussionsteilnehmer Roland Siegwart von der Eidgenössischen Technischen Hochschule (ETH) Zürich vorab gefragt, wie intelligent Maschinen werden können und ob sich Oma im Straßenverkehr schon vor Autos mit ethischen Grundsätzen fürchten muss.

Roland Siegwart, ETH Zürich
futurezone: Gibt es derzeit einen Hype um Künstliche Intelligenz (KI)?
Roland Siegwart: Der Hype existiert, weil es langsam möglich wird, Systeme zu bauen, die eine gewisse Intelligenz an den Tag legen, etwa bei selbstfahrenden Autos. Firmen wie Google und Apple nutzen und befördern diesen Hype. In Wirklichkeit gibt es noch viele offene Fragen. Ich war gerade in Indien. Wenn Sie eines von Googles selbstfahrenden Autos dort in den Berufsverkehr schicken, werden Sie sehr schnell sehen, was solchen Systemen noch fehlt.

Das Unvorhersehbare als großer Feind der KI?
In planbarer Umgebung kommen Maschinen zurecht, wenn es aber um Interaktion geht - wie im indischen Straßenverkehr - dann klappt das noch nicht. Menschliche Intentionen zu verstehen, ist für Maschinen schwierig.

Kann eine Maschine über Intelligenz im menschlichen Sinn verfügen?
Ob eine KI je wirklich Intelligenz zeigen kann, ist eine philosophische Frage. Es ist schwer zu definieren, was Intelligenz überhaupt ist. Schachspielen gilt als Zeichen von Intelligenz, trotzdem würde niemand einem Schachcomputer menschliche Intelligenz zusprechen. Wir haben heute zwar sehr spezifische Systeme, die in gewissen Situationen schneller und besser reagieren als der Mensch. Aber Intelligenz umfasst auch Kreativität und andere Eigenschaften. Ich glaube nicht, dass Maschinen, wie wir sie heute auf Siliziumbasis bauen, das können.

Werden uns die Maschinen irgendwann gefährlich?
Die nächsten paar Jahrzehnte brauchen wir keine Angst zu haben, dass die Maschinen die Oberhand gewinnen. Aber Systeme wie die Google-Suche werden wichtiger. Das Verarbeiten enormer Datenmengen liegt dem Menschen nicht, hier brauchen wir Maschinen. Aber Entscheidungen treffen sich nicht durch statistische Analysen, hier bleibt der Mensch gefragt.

Zuletzt haben einige ihrer Kollegen zur Vorsicht bei der Erforschung von KI gemahnt. In der Science-Fiction-Literatur ist die Singularität öfters ein Thema. Können Sie damit etwas anfangen?
Die Singularität ist interessant, aber sie ist beliebig weit weg. Zudem ist unklar, was das überhaupt sein soll. Für ein solches Szenario bräuchte eine Maschine so etwas wie einen Lebenswillen. Eine KI ist sicher negativ nutzbar, aber verselbständigen wird sie sich nicht.

Wo ist der Mensch den Maschinen überlegen?
Bei der Wahrnehmung komplexer Situationen und im Vorausplanen sind Menschen klar im Vorteil. Der Mensch hat Modelle im Kopf, die es ihm erlauben, seine Erwartungen an Situationen anzupassen und vorauszuschauen. Für Maschinen gibt es das noch nicht. Computer können kaum mehr als Form und Farbe eines Objekts wahrnehmen, obwohl ihre Kameras teilweise besser sind als unsere Augen. Aber uns überrascht nicht, wenn ein Windstoß eine Baumkrone bewegt und wir wissen, dass ein Mensch nicht plötzlich fünf Meter zur Seite springt. Wir haben Modelle unserer Umwelt im Kopf, die in einer Maschine viel Speicher brauchen würden. Das müssen wir effizienter gestalten.

Ist die Biologie immer das richtige Vorbild?
Von der Biologie können wir viel lernen, etwa was Effizienz angeht. Selbstfahrende Autos kommen schnell an ihre Grenzen, ein Mensch kann mit wesentlich weniger Ressourcenverbrauch sicher autofahren. Aber es gibt Dinge, die die Biologie nicht so gut kann: Ein Auto kann alles Gelernte weitergeben, indem der Speicher kopiert wird, ein Mensch muss in die Fahrschule. Maschinen reagieren schneller und haben gute, begrenzte Modelle - ein Auto weiß stets genau, wie lange der Bremsweg ist.

Im Straßenverkehr können aber schwierige Situationen auftreten. Soll mein selbstfahrendes Auto die Oma links oder das Kind rechts überfahren, wenn es ausweichen muss?
Auch das ist lösbar. Hier müssten ethische Regeln entwickelt werden, wie in der Literatur bei Asimov (Der Science-Fiction-Autor, der die Robotergesetze erfunden hat, die verhindern, dass die Maschinen Menschen Schaden zufügen, Anm.). Es wird oft vergessen, dass der Mensch in kritischen Situationen auch nicht gut darin ist, Entscheidungen zu treffen. Er reagiert intuitiv und wahrscheinlich in 50 Prozent der Fälle falsch. Fahrzeuge könnten das besser.

Also muss sich die Oma schon in Acht nehmen?
Autos können das Alter von Personen heute noch nicht zuverlässig unterscheiden.

Die Autos werden also nicht sofort die Kontrolle auf den Straßen übernehmen?
Das wird noch nicht so schnell passieren. Zuerst wird es in kontrollierten Situationen ausprobiert werden, wie auf der Autobahn oder im Parkhaus. Dann werden wir bessere Assistenzsysteme sehen. In fünf bis zehn Jahren wird es so sein, dass ein Auto entscheidet, ob sich die Aufprallenergie am besten reduzieren lässt, indem ich hinten in ein Auto reinfahre oder links ausweiche und ein anderes Auto anfahre.

Werden die cleveren Maschinen den Menschen die Arbeit wegnehmen?
Von der Industrialisierung haben anfangs viele Menschen nicht profitiert, langfristig haben aber alle Vorteile daraus gezogen. Es wird Verlagerungen geben, aber die gehen nicht so schnell vonstatten. Im Westen sehe ich derzeit eher das Problem, dass wir keine Leute mehr für viele Jobs bekommen, etwa in der Landwirtschaft. Hier könnten Maschinen wie automatische Traktoren Abhilfe schaffen.

Also fürchten Sie keine superintelligenten Maschinen, die uns obsolet machen?
Ich möchte mir im Ruhestand gerne anschauen, was die Forschung schon alles versprochen und was sie tatsächlich gehalten hat. Schon vor 20 Jahren wurden alleskönnende Roboter prophezeit. Wo sind heute die Maschinen, die komplexe Aufgaben erfüllen? Wenn wir morgen alleskönnende Roboter hätten, wäre das ein Problem, aber solche Entwicklungen passieren langsam.

Sie sehen also nichts Negatives darin, zunehmend auf intelligente Systeme setzen?
Ich sehe eine Gefahr: Vor 20 Jahren brauchte ich einen Banker, um mein Geld gut anlegen zu können. Heute kann ich mit etwas Zeitaufwand durch das verbesserte Informationsangebot genauso gut investieren wie ein Durchschnittsbanker, für den wird es daher schwieriger. Wer Daten gut und schnell analysieren und dann entsprechende Entscheidungen treffen kann, wird gewinnen. Andere werden verlieren. Das kann zu einer Zweiklassengesellschaft führen.

Sind unsere Systeme gut genug, um schwerwiegende Entscheidungen zu treffen - etwa an den Börsen?
Es gibt immer Gefahren, Lawinen sind schnell ausgelöst, Börsen können crashen. Wir werden in den kommenden Jahren wohl noch einige bittere Erfahrungen mit diesen Dingen machen. An der Börse geht es zwar um virtuelle Werte, aber die Finanzwelt hat sie eng an die Realität gekoppelt. Da kann enormer Schaden entstehen.

Sollten wir dann nicht in manchen Bereichen auf die Maschinen verzichten?
Die Gesellschaft sollte vernünftiger und langfristiger denken, kurzfristiges Handeln ist verheerend. Diese Gefahr wird größer. Systeme könnten auch langfristig handeln, aber Menschen wollen schnelle Gewinne. Die Systeme sind nicht das Problem, sondern die Menschen.

Die futurezone ist offizieller Medienpartner der Technologiegespräche beim Forum Alpbach 2015.

Hat dir der Artikel gefallen? Jetzt teilen!

Markus Keßler

mehr lesen
Markus Keßler

Kommentare