Science
09.09.2016

Rassistische KI als Juror bei Schönheits-Wettbewerb

Ein Algorithmus hat unter tausenden Bildern von Frauen bevorzugt jene gewählt, die eine helle Hautfarbe haben. Es ist nicht der erste Fall von rassistischer KI.

Vor kurzem fand in China der erste Schönheitswettbewerb statt, der von einer künstlichen Intelligenz beurteilt wurde. Das Ziel war, mithilfe von Beauty.AI, einer Software, die sich aus mehreren Algorithmen zusammensetzt, aus 6000 Einreichungen die Frau mit dem neutral „schönsten“ Gesicht zu bestimmen.

Obwohl Frauen aus aller Welt ihre Fotos eingereicht haben, darunter große Gruppen aus Afrika und Indien, war der überwiegende Großteil der Siegerinnen hellhäutig. Nur wenige asiatische und eine einzige dunkelhäutige Dame wurden vom Algorithmus auserkoren.

Künstliche Intelligenz ist anfällig für Vorurteile

Der Grund für die Bevorzugung von weißen Frauen dürfte im Antrainieren der KI liegen. Um die Beurteilung von Schönheit zu erlernen, speiste das Entwicklerteam den Algorithmus mit Foto-Datensätzen, erklärte Beauty.Ai-Chef Alex Zhavoronkov dem Guardian. In diesen Datensätzen dürften nicht genügend Fotos von dunkelhäutigen Frauen enthalten gewesen sein. So soll Beauty.AI davon ausgegangen sein, dass helle Haut ein Zeichen von Schönheit ist, obwohl die Entwickler dem Algorithmus so eine Denkensweise nie aktiv beigebracht hätten.

Eine weitere Erklärung kommt von Bernard Harcourt, Professor für Rechts- und Politikwissenschaften an der Universität Columbia. Seiner Meinung nach könne künstliche Intelligenz nie neutral beurteilen, da sie immer davon ausgeht, was ihr beigebracht wurde. Auch wenn Menschen die Algorithmen nicht bewusst mit Vorurteilen ausstatten, würden sie unbewusst ihre Denkweisen auf die KI übertragen.

Beispiele für rassistische Algorithmen sind weit verbreitet

Diesen Umstand kann man bei Online-Werbungen beobachten. Eine Studie der Carnegie Mellon Universität hat gezeigt, dass Frauen weniger oft Werbungen angezeigt werden, die einen überdurchschnittlichen Verdienst versprechen.

Eine ähnliche Problematik ist bei Microsofts Twitterbot Tay aufgefallen, der anhand von Konversationen mit Menschen lernen sollte. Das Projekt musste nach 16 Stunden abgebrochen werden, da Tay den Holocaust leugnete und wüste Beschimpfungen von sich gab.

In den USA wurde außerdem ein Computersystem Inhalt von Diskussionen, das die Wahrscheinlichkeit der Rückfälligkeit von Verbrechern ermittelt. Kritiker vermuten, dass der Algorithmus dunkelhäutigen Menschen ein höheres Rückfallrisiko gäbe und dadurch das Leben von vielen Menschen ungerechtfertigt erschweren würde.