© dan177/istockphoto

Meinung

Der Computer, das sexistische Ekelpaket

Bewerbungsinterviews sind eine furchtbare Sache. Verkleidet mit einer Bürouniform, die man ungern trägt, spricht man mit Menschen, die man nicht kennt, über einen Job, den man in Wahrheit vielleicht gar nicht möchte. Der anderen Seite geht es dabei kaum besser: Man hat keine Ahnung, woran man passende Mitarbeiter erkennen könnte und nimmt verzweifelt Zuflucht zu idiotischen Fragen wie: "Was sind Ihre größten Schwächen? Wo sehen Sie sich in fünf Jahren? Wären Sie lieber ein Toaster oder ein Küchenmixer?"

Was liegt also näher, als diese dämliche Aufgabe an den Computer zu delegieren? Amazon entwickelte eine Software, die mit Hilfe künstlicher Intelligenz Bewerbungsschreiben automatisch bewerten soll. Das klingt fantastisch. Endlich eine faire Methode, Menschen vorurteilsfrei zu beurteilen! Dem Computer ist es egal, ob der Vater der Bewerberin zufällig ein Schulfreund der Vorstandsvorsitzenden ist. Er fragt nicht nach der Hautfarbe und eliminiert keinen vielversprechenden Kandidaten, nur weil er seinen Krawattenknoten schlecht gebunden hat.

Automatisch generierter Sexismus

Das Ergebnis dieses Experiments war allerdings ernüchternd: Die künstliche Intelligenz erwies sich als sexistisches Ekelpaket. Frauen wurden systematisch benachteiligt. Der Computer reagierte negativ auf die Verwendung des Wortes „women’s“. Wer also im Bewerbungsschreiben erwähnte, in einem Frauen-Sportteam mitgemacht zu haben, wurde gleich mal schlechter bewertet. In einer Frauenschule gewesen zu sein, wurde mit Punkteabzug bestraft.

Wie konnte das passieren? Der Computer ist immer nur so intelligent, wie die Daten, die man ihm füttert. Die künstliche Intelligenz von Amazon war mit Bewerbungsschreiben und von Menschen verfassten Beurteilungen aus einem Zeitraum von zehn Jahren trainiert worden. Sie sollte darin selbstständig Muster erkennen, Regeln herauslesen und dann auf neue Bewerbungsschreiben anwenden. So erlernte die künstliche Intelligenz natürlich auch alle problematischen, ungerechten und sexistischen Verhaltensmuster, die sich im Datenmaterial zeigten. Der Computer wurde einfach genauso sexistisch wie die von Menschen verfassten Beurteilungen in den zehn Jahren davor.

Ähnliches hatte schon 2016 für Aufregung gesorgt, als Microsoft einen Chatbot twittern ließ, in der Hoffnung, er würde durch die Interaktion mit Millionen Menschen lernen und immer intelligenter werden. Stattdessen begann der Chatbot innerhalb von Stunden, verstörende Aussagen zu tweeten, wie man sie sonst eher von merkwürdigen Präsidenten kennt. Die Menschheit hatte ihm vorgemacht, wie man sich grässlich verhält, und der Chatbot hatte brav gelernt.

Welche Seiten an uns soll der Computer übernehmen?

So bedenklich solche Entgleisungen auch sind, sie liefern uns interessante Chancen: Wenn künstliche Intelligenz zukünftig in vielen Lebensbereichen eine Rolle spielen soll – und das lässt sich wohl nicht aufhalten – dann müssen wir Menschen uns gemeinsam darüber klar werden, welche unserer Ansichten, Vorstellungen und Eigenschaften wir auf künstliche Intelligenzen übertragen wollen.

Wir müssen entscheiden, welche unserer eigenen Verhaltensmuster erwünscht und welche gefährlich sind. Ähnlich wie Eltern, die sich darauf einigen, welche moralischen Leitlinien sie ihrem Kind mit auf den Weg geben, müssen wir eine Antwort auf die Frage finden, welche moralischen Regeln einer künstlichen Intelligenzen beigebracht werden sollen.

Vielleicht tut uns das ganz gut. Vielleicht hilft uns das, uns selbst ein bisschen besser zu verstehen. Vielleicht trägt das dazu bei, dass wir die positiven, menschlichen, klugen Seiten an uns selbst mehr wertschätzen.

Wenn man Ungerechtigkeiten anhand eines Computerprogramms glasklar nachweisen und untersuchen kann (so wie im Fall der sexistischen Bewerbungs-Bewertungen), hilft uns Menschen das dann vielleicht, unfaires Verhalten besser zu verstehen, zu erkennen und zu vermeiden? Kann eines Tages vielleicht ein nützliches Online-Tool sogar abschätzen, welche Auswirkungen ein neuer Gesetzesantrag haben könnte? Vielleicht macht uns die künstliche Intelligenz dann darauf aufmerksam, dass die angedachte Reform für eine bestimmte Randgruppe schädliche Folgen haben könnte, an die wir gar nicht gedacht hätten?

Wie bei allen technischen Entwicklungen gilt: Gut wird es nur, wenn wir etwas Gutes daraus machen. Wir haben die Chance dazu.

Der Autor

Florian Aigner ist Physiker und Wissenschaftserklärer. Er beschäftigt sich nicht nur mit spannenden Themen der Naturwissenschaft, sondern oft auch mit Esoterik und Aberglauben, die sich so gerne als Wissenschaft tarnen. Über Wissenschaft, Blödsinn und den Unterschied zwischen diesen beiden Bereichen schreibt er jeden zweiten Dienstag in der futurezone.

Hat dir der Artikel gefallen? Jetzt teilen!

Florian Aigner

Florian Aigner ist Physiker und Wissenschaftserklärer. Er beschäftigt sich nicht nur mit spannenden Themen der Naturwissenschaft, sondern oft auch mit Esoterik und Aberglauben, die sich so gerne als Wissenschaft tarnen. Über Wissenschaft, Blödsinn und den Unterschied zwischen diesen beiden Bereichen, schreibt er regelmäßig auf futurezone.at und in der Tageszeitung KURIER.

mehr lesen
Florian Aigner

Kommentare