Prop Store movie memorabilia auction
© EPA / NEIL HALL

Netzpolitik

Künstliche Intelligenz: "Menschen sind von den Schattenseiten fasziniert"

"Die Wörter 'künstliche Intelligenz' lösen bei vielen Menschen eine angstbasierte Reaktion aus, etwa eine Vorstellung vom Terminator.”

Wenn Software Menschen Entscheidungen abnimmt, stellen sich ethische Fragen. Wie weit darf die Software gehen? Und was, wenn sie falsch liegt? Reggie Townsend ist Datenethiker und sitzt in einem Komitee, das den US-Präsidenten Joe Biden zu künstlicher Intelligenz (KI) berät. Mit der futurezone hat Townsend über Risiken und Möglichkeiten von KI gesprochen.

futurezone: KI ist ein extrem breites Feld: Wie würden Sie künstliche Intelligenz definieren? 
Reggie Townsend
: Das ist eine schwierige Frage, weil sich künstliche Intelligenz immer weiter verändert. Deswegen ist es auch für die Öffentlichkeit so schwer, das Thema zu erfassen. Für mich ist künstliche Intelligenz im weitesten Sinne eine Technologie, die vorausschauend Entscheidungen ohne menschlichen Input treffen kann.

Heutzutage verfügt jeder Supermarkt über Software, die Angebot und Nachfrage vergleicht und auf Grundlage dessen Waren nachbestellt. Ist das bereits KI?
Wenn in diesem Prozess kein Mensch beteiligt ist, dann ja. 

Wie wird KI generell von der Öffentlichkeit aufgenommen?
Die Wörter “künstliche Intelligenz” lösen bei vielen Menschen eine angstbasierte Reaktion aus. Es kommen gleich Bilder in den Kopf, dass man an seinem Arbeitsplatz von einer KI ersetzt wird. Oder Vorstellungen vom “Terminator”. In Wahrheit ist KI aber weit weniger fortgeschritten.

Reggie Townsend ist Director of Data Ethics Practice beim Softwareunternehmen SAS.

Reggie Townsend ist Director of Data Ethics Practice beim Softwareunternehmen SAS.

Wozu wird KI sonst eingesetzt?
Im Kundendienst zum Beispiel, wo bereits heute viel automatisiert wird - Stichwort "Chatbots". Oder etwa bei der vorausschauenden Wartung von Maschinen. Künstliche Intelligenz kann erkennen, wann ein Maschinenteil ausgetauscht werden muss, noch bevor es kaputtgeht.

Woher stammt das falsche Bild von künstlicher Intelligenz? 
Menschen sind von den Schattenseiten einer Technologie immer mehr fasziniert als von den Möglichkeiten. Es braucht aber beides: ein gutes Verständnis der Risiken und auch der Vorteile. Sehen Sie sich unsere Smartphones an - da kommt überall KI zum Einsatz.

Gibt es Unterschiede zwischen den USA und Europa, was die Auffassung von KI anbelangt?
Ich bin mir nicht sicher, ob die Unterschiede zwischen den USA und Europa so groß sind. In den USA mag es mehr Unternehmen geben, die auf KI setzen, in der Öffentlichkeit sind die Ansichten aber weitestgehend dieselben.

Regulierungen für künstliche Intelligenz

Die US-Regierung hat erst im September 2022 eine Reform der Rechenschaftspflicht für Technologie angekündigt. Diskriminierende Algorithmen sollen dadurch gestoppt und der Schutz der Privatsphäre gestärkt werden. 

Der Anfang Oktober erschienene Entwurf für das KI-Gesetz soll Amerikaner*innen vor "unsicheren oder untauglichen" Systemen schützen. Augenmerk liegt dabei darauf, dass Algorithmen nicht diskriminierend sein sollte und Systeme so verwendet werden sollen, wie sie entworfen wurden. 

Zudem sollen Betroffene darüber informiert werden, ob und wann ein automatisiertes System bei ihnen zur Anwendung kommt. Dabei sollen sie immer in der Lage sein, sich von diesen KI-Systemen abzumelden und eine menschliche Alternative zu wählen.

EU will KI stärker reglementieren

Die EU beschreitet einen ähnlichen Weg, um KI zu reglementieren, will dabei aber die Rechte jener bestärken, die einen Schaden durch KI erleiden könnten. Dafür will die EU eine sogenannte Kausalitätsvermutung einführen. 

Wurde man bei einer Job-Bewerbung etwa automatisiert ausgemustert, ein*e Bewerber*in mit schlechterer Qualifikation aber genommen, musste man bisher detailliert beweisen, wie die eingesetzte KI die eigenen Chancen schmälerte. Mit der Kausalitätsvermutung muss man diesen Fehler nicht mehr detailliert darstellen. Es reicht, dass die KI dazu geeignet ist, diesen Schaden zu verursachen.

Die neuen EU-Regeln sollen Rechtssicherheit schaffen und dafür sorgen, dass Opfer von KI-Systemen angemessen entschädigt werden. Die Vorschläge der EU-Kommission müssen allerdings noch von EU-Parlament und Rat angenommen werden.

Oft wird das Beispiel der selbstfahrenden Autos gebracht, bei dem eine KI entscheiden muss, ob bei einem Ausweichmanöver eine alte oder eine junge Person überfahren wird. Eine Regelung scheint hier unmöglich.
Wir haben die Werkzeuge bereits, um hier Regeln umzusetzen. Es gab eine Zeit, in der nur wenige Autos auf den Straßen unterwegs waren. Man brauchte nicht einmal einen Führerschein, um ein Auto zu fahren. Nach und nach wurde der Straßenverkehr aber immer stärker reglementiert. Auch künstliche Intelligenz wird diesen Weg gehen und sich gewissen Standards anpassen müssen. Genauso, wie sich auch die Öffentlichkeit daran anpassen muss. 

Wie meinen Sie das?
Das generelle Verständnis, das allgemeine Bewusstsein zum Thema KI, muss besser werden. Wir brauchen einen Führerschein im Umgang mit Autos, warum nicht auch einen Führerschein im Umgang mit KI? Kinder lernen bereits von klein auf, wie man sich im Straßenverkehr verhalten muss. Man sollte zumindest in den Grundzügen Bescheid wissen, wo KI überall zum Einsatz kommt und wie sie auch manipuliert werden kann.

Stichwort Manipulation: KI ist bekannt dafür, voreingenommen gegenüber Minderheiten zu sein und Vorurteile zu verstärken.
Künstliche Intelligenz erhält die Daten, mit denen sie trainiert wird, zum größten Teil aus der Vergangenheit. Und da spielt der sogenannte Bias eine große Rolle. Wir müssen nun Wege finden, diese Daten herauszufiltern und so ihre Auswirkungen zu mildern.

Künstliche Intelligenz und ihr Bias

Algorithmen sind nur so fair und unvoreingenommen, wie die Datensätze, mit denen sie arbeiten. Ist in einem Datensatz aber eine bestimmte Kategorie "privilegierter" als andere, geben auch Computerprogramme dieses Vorurteil wider. 

Dieser sogenannte Bias kann von vielen Faktoren abhängen - etwa einer Unterrepräsentation gewisser ethnischer Gruppen, einer Zuschreibung gewisser Eigenschaften an ein Geschlecht oder der Diskriminierung von einkommensschwachen Personen

Sogar bei sehr differenzierten, fairen Datensätzen kann sich ein Bias während der Programmierung des Computerprogramms einschleichen. Die meisten Programmierer*innen sind nämlich weiße Männer, die oft unbewusst auch weiße Männer als typischen Nutzer ihrer Software vor Augen haben. Das kann dazu führen, dass andere Gruppen benachteiligt werden.

Wie würde eine ideale KI aussehen?
Zuerst stellt sich die Frage, wo künstliche Intelligenz überhaupt Vorteile liefern kann. Dann muss man einer künstlichen Intelligenz vertrauen können. Bei der Entwicklung und dem Einsatz steht immer der Mensch im Mittelpunkt, nicht etwa Gewinnmaximierung. Oberste Prinzipien müssen außerdem Wohlbefinden und Fairness bleiben. Und es schadet auch nicht, einige Zeit in die Erforschung und Verbesserung von künstlichen Intelligenzen zu investieren.

Sie blicken also optimistisch in die Zukunft, was KI betrifft?
Absolut. Es würde schließlich nichts nützen, nicht optimistisch zu sein.

Hat dir der Artikel gefallen? Jetzt teilen!

Marcel Strobl

marcel_stro

Ich interessiere mich vor allem für Klima- und Wissenschaftsthemen. Aber auch das ein oder andere Gadget kann mich entzücken.

mehr lesen
Marcel Strobl

Kommentare