Maschine als schlechter Erklärer

Edward A. Lee erzählt im Interview, warum Maschinen schlechte Erklärer sind

© APA/AFP/PHILIP FONG / PHILIP FONG

Science

"Maschinen sind gute Entscheider, aber schlechte Erklärer"

Der Informatiker Edward A. Lee forscht in den USA an der Universität von Kalifornien in Berkeley seit Jahrzehnten zu künstlicher Intelligenz. Er geht davon aus, dass Maschinen Entscheidungen treffen, die für Menschen manchmal nur sehr schwer erklärbar sind. Der Experte im Gespräch mit der futurezone.

futurezone: Viele Menschen vertrauen Computern eher als Menschen. Können Maschinen wirklich bessere Entscheidungen treffen?
Edward A. Lee: In den vergangenen 15 Jahren gab es bahnbrechende Erfolge, um spezielle Probleme mit der Hilfe von neuronalen Netzen zu lösen. Aber Computer gehen ganz anders an die Sache heran als Menschen. Sie sind beim algorithmischen Denken viel besser, aber sie können im Anschluss oft nicht erklären, wie sie zu einer Entscheidung gelangt sind.

Was heißt das in der Praxis?
Maschinen verwenden Milliarden von  Funktionen, rechnen viele Dimensionen zusammen und verarbeiten sehr viele Daten, um zu einer Entscheidung zu gelangen. Die Maschine bringt etwa den Ukraine-Krieg auch mit Elektronen oder Protonen in Zusammenhang.  

Es gibt EU-Gesetze, die vorsehen, dass jede Entscheidung, die ein Computer trifft, nachvollziehbar sein muss. Und Sie sagen gerade, dass das gar nicht möglich ist?
Ich weiß, das ist etwa in der EU-Datenschutzgrundverordnung (DSGVO) so vorgesehen. Aber sehr viele dieser Rechtswerke sind nicht durchsetzbar. Es gäbe aber eine Lösung: Wir müssten künstliche Intelligenz trainieren, uns ihre Entscheidungen so zu erklären, dass wir auch etwas damit anfangen können.

Das klingt einfach, ist es aber nicht?
Es wurde nur noch nicht gemacht. Im Prinzip gibt es aber eine Technik, die man dafür einsetzen könnte. Diese ist bei den Forschenden zu künstlicher Intelligenz sehr bekannt, denn man hat sie etwa dazu eingesetzt, um bei Maschinen die Treffergenauigkeit bei Bildern zu erhöhen. Doch das könnte auch bei Argumenten und Erklärungen funktionieren. Man lässt zwei künstliche neuronale Netzwerke gegeneinander antreten, indem man sie mit möglichen Argumenten füttert und am Ende können diese dann erklären, welches Argument sie aus welchem Grund mehr überzeugt hat.

Menschen haben darauf aber keinen Einfluss mehr, oder?
Genau das ist der Fehler, den viele Menschen begehen. Sie glauben, dass ein Programmierer komplett kontrollieren kann, was ein Computer tut. Das ist einfach nicht wahr. Programmierer*innen können mit einigen Befehlen in den operativen Prozess eingreifen, aber das Ergebnis, das dann am Ende herauskommt, können sie nicht vorhersagen. Das ist eine komplette Überraschung.

Edward A. Lee ist Gastprofessor an der TU Wien

Es gab in der Vergangenheit bereits zahlreiche Beispiele, in denen Maschinen sehr rassistische oder sexistische Ergebnisse ausgespuckt haben. Woran liegt das?
Rassismus ist in unserer Gesellschaft tief verwurzelt. Die Maschinen haben das  von den Daten, mit denen sie gefüttert worden sind, gelernt. Weil Menschen auf eine bestimmte Art und Weise auf andere Menschen reagieren, haben die Systeme diese Vorurteile übernommen. Es ist sehr schwer, dieses Problem in den Griff zu bekommen.

Warum?
Es gibt nicht einmal richtige, allgemeingültige Kriterien für Menschen, wie sie mit diesen Themen umgehen sollen. Wie soll eine Maschine das verstehen? Aber man kann es auch als Chance sehen: Wir können die Maschinen als Hilfe sehen, um unsere eigenen Vorteile besser zu verstehen und dann davon lernen. Da gibt es Potenzial.

Aber werden nicht viele Entscheidungen aufgrund von Empfehlungen von Algorithmen getroffen, die Vorurteile einprogrammiert haben?
Sie werden aber nicht nur dafür verwendet. Maschinen könnten Menschen dabei eine kognitive Hilfe sein, ihre eigenen Entscheidungen zu hinterfragen und somit könnten wir insgesamt zu besseren, vorurteilsfreien Ergebnissen kommen.

Kommen wir noch einmal zu den Gesetzen zurück. Die EU plant neben dem Datenschutz ja auch eine strengere Regulierung von KI und Internet-Konzernen.  Wie sehen Sie das?
Europa ist auf dem Level wesentlich aggressiver als andere Teile der Welt. Europa versucht, ein digitales Immunsystem aufzubauen, um die Co-Evolution von Technologie und Menschen zu regulieren. Genau dieses digitale Immunsystem brauchen wir, um die negativen Effekte, die der gemeinsame Weg des Menschen mit neuen Technologien mit sich bringt, auszugleichen.

Zur Person

Edward A. Lee ist Buchautor und Informatiker an der Universität von Kalifornien in Berkeley (USA). Er ist gerade als Gastprofessor und IWM Senior Fellow an der Fakultät für Informatik der Technischen Universität (TU) Wien und dem Institut für die Wissenschaften vom Menschen tätig. Vergangene Woche wurde er mit dem Ehrendoktorat für seine herausragenden Leistungen auf dem Gebiet der Informatik ausgezeichnet

Sie unterrichten im Sommersemester auch digitalen Humanismus an der TU Wien. Was bedeutet der Begriff für Sie?
Das Konzept, das in Wien vor vier Jahren entstand und von Hannes Werthner ins Leben gerufen wurde, finde ich faszinierend. Ich glaube, es wird ähnlich wichtig werden, wie der Wiener Kreis, den es vor 100 Jahren gegeben hat. Dieser hatte großen Einfluss auf die Philosophie. Jetzt wird hier Technologie kritisch reflektiert, das ist ebenso bedeutend.

Wie ist es, auf zwei verschiedenen Instituten in Wien zu arbeiten?
Das ist sehr spannend. Anders als auf der Universität in Berkely (Kalifornien) treffe ich hier auf Psycholog*innen, Informatiker*innen und Soziolog*innen – und alle arbeiten gemeinsam daran, besser zu verstehen, wie Menschen und Computer koexistieren können. Es ist sehr inspirierend.

Wann glauben Sie kommt der Punkt an dem eine künstliche Intelligenz schlauer ist als Menschen?
Diese Frage setzt voraus, dass Menschen das Ultimative an Intelligenz sind, aber jeder, der Menschen kennt, sollte daran zweifeln. In vielen kognitiven Funktionen sind Maschinen schon lange besser als Menschen. Aber Menschen haben die Fähigkeit, die Interaktion zwischen Körper und Umwelt besser steuern zu können. Maschinen werden hingegen eher zu den Dingen gebraucht, in denen Menschen nicht gut sind.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Speakerin. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen Barbara Wimmer

Kommentare