Businessman using using face recognition outdoors
© Getty Images / wonry/IStockphoto.com

Netzpolitik

Algorithmus erkennt politische Einstellung per Foto

Michal Kosinski, Professor an der Stanford Universität, ist Kritiker von Gesichtserkennungssystemen. Er warnt seit Jahren davor, dass immer mehr dieser Systeme dafür eingesetzt werden, über intime Merkmale von Personen und ihrem Gesicht Urteile über diese zu fällen. Diese Praxis möchte er anderen Wissenschaftlern, politischen Entscheidungsträgern und Bürgern näher bringen. Zu diesem Zweck hat er selbst eine Studie durchgeführt, die in diese Kerbe schlägt.

Kosinski hat Fotos von über einer Million Menschen aus den USA, Kanada und Großbritannien durch einen Gesichtserkennungsalgorithmus geschickt, um ihre politischen Vorlieben festzustellen. Der Algorithmus wurde dabei so trainiert, dass er mit einer bestimmten Wahrscheinlichkeit die politische Einstellung ablesen kann. Die Trefferquote lag in diesem Fall bei 72 Prozent. Das Gesichtserkennungstool kann damit bei knapp drei von vier Personen anhand eines einzigen Fotos vorhersagen, ob jemand liberal oder konservativ eingestellt ist.

FILES-US-IT-LIFESTYLE-PRIVACY-POLICE

Liberal oder konservativ

Die Ergebnisse der Studie hat der Stanford-Forscher im Nature Journal Scientific Reports veröffentlicht. Eingesetzt wurde ein Open-Source-Algorithmus. Von jeder Person kam nur ein einziges Foto zum Einsatz und zwar jenes, das sie selbst von sich auf Facebook oder einer „beliebten“ Dating-Plattform veröffentlicht hatten.

Die Fotos der 1.085.795 Personen, die ihre Einwilligung erteilt hatten, dass ihr Foto verwendet werden durften, wurden jeweils automatisch auf die Größe von 224 x 224 Pixel zugeschnitten und in die Software Face++ eingespielt.

Dazu war von jeder der Personen bekannt, ob sie entweder liberal oder konservativ eingestellt sind - andere politische Präferenzen, wie etwa „grün“, „libertär“ oder „nicht politisch“ gab es keine zur Auswahl, bzw. deren Fotos wurden aus der Studie entfernt.

Besser als der Mensch

In 72 Prozent der Fälle konnte das System die Person richtig zuordnen. Das ist mehr als wenn ein Mensch, dem das Foto gezeigt wird, zustande bringt. Dieser liegt in 55 Prozent der Fälle richtig. Aber das Gesichtserkennungssystem ist auch präziser als ein Persönlichkeitstest, mit dem 100 Merkmale über eine Person abgefragt werden. Selbst nach einem solchen Test liegt die Wahrscheinlichkeit, festzustellen, ob jemand liberal oder konservativ eingestellt ist, nur bei 66 Prozent. Damit ist das System auf jeden Fall treffsicherer als der Zufall, der Mensch und Persönlichkeitstests.  

Würde man darauf reelle, wichtige Entscheidungen basieren, wäre die geringe Trefferquote kritisch. Es gibt jedoch tatsächlich Gesichtserkennungssysteme im Praxis-Einsatz, die in rund 80 Prozent richtig liegen. Diesen Wert könnte man mit Sicherheit erreichen, würde man mehr als ein Profilfoto von einer Person zur Verfügung hat. Doch darauf habe man laut Kosinski absichtlich verzichtet.

"Man stelle sich vor, so ein System würde tatsächlich implementiert werden, um politisch Andersdenkende rauszufischen"

epicenter.works

Warnung vor Missbrauch

Dem Forscher ging es nie darum, das „perfekte System“ zu entwickeln, um anhand von Gesichtern Menschen politisch zu kategorisieren, stattdessen möchte er auf die Gefahren aufmerksam machen, die ein solches System mit sich bringen würde, würde es von Unternehmen eingesetzt. Bei Facebook könnte es beispielsweise genutzt werden, um Menschen auf Basis ihrer politischen Vorlieben bestimmte Werbungen einzuspielen.

„Dieses Beispiel zeigt sehr gut, dass solche Systeme, wenn sie falsch verstanden werden, zum Missbrauch führen könnten. Man stelle sich vor, so ein System würde tatsächlich implementiert werden, um politisch Andersdenkende rauszufischen“, warnt eine Sprecherin der Bürgerrechtsorganisation epicenter.works im Gespräch mit der futurezone.

Japan's NEC Corp launches a facial recognition system that identifies people even when they are wearing masks amid the coronavirus disease (COVID-19) outbreak

Öffentliche Fotos von jedem

Kosinski gibt zu bedenken, dass es von nahezu jedem Menschen heutzutage mindestens ein Foto gibt, das öffentlich im Netz steht. Sei es jenes vom Facebook-, Instagram-, LinkedIn-, Twitter-, oder Xing-Profil, oder andere Dienste. Meist ist das Profil-Foto öffentlich zugänglich und kann nicht mit Privatsphäre-Einstellungen geschützt werden und ist damit auch für Gesichtserkennungssysteme zugänglich. Zudem gibt es mittlerweile fast überall im öffentlichen Raum Überwachungskameras, die früher oder später mit Gesichtserkennungstechnologien ausgestattet werden.

Damit ist jeder potentiell der Gefahr ausgesetzt, dass sein Gesicht für derartige Analysezwecke missbraucht wird und in Folge Aktionen gesetzt werden, die das künftige Leben einer Person in bestimmten Bereichen beeinflussen können.

Doch wie kommt das System eigentlich zu einer Entscheidung, wer nun liberal oder wer eher konservativ eingestellt ist? Der Algorithmus analysiert nicht in erster Linie die biometrischen Merkmale der Personen, sondern orientiert sich an anderen Parametern. So spielt etwa die Haltung des Kopfes in einem Bild eine große Rolle.

Kopfhaltung und Emotionen

In 58 Prozent der Fälle konnte das System anhand dieser Haltung, also ob dieser am Foto nach links oder rechts geneigt ist, die politische Einstellung errechnen. In 57 Prozent der Fällen lag es an den Emotionen, die im Gesicht zu sehen waren. Diese Methoden gelten unter Forschern seit längerem als umstritten.

Liberale tendieren laut dieser Studie dazu, direkt in die Kamera zu schauen und meistens eher „Überraschung“ zu signalisieren. Die Frage, wie man sein Haar trägt und die Augen schminkt konnten die politischen Vorlieben immerhin noch mit einer Wahrscheinlichkeit von 51 bis 52 Prozent vorhersagen. Damit lässt sich das System auch nicht so leicht austricksen. „Sich permanent zu verstellen oder den Kopf bewusst anders zu halten, als man es gewohnt ist, würde sehr herausfordernd sein“, warnt der Forscher.

Die Datenschützer von epicenter.works gehen aufgrund von dieser Daten davon aus, dass dieses Modell nicht für Bildmaterial aus anderen Settings geeignet wäre. „Es ist wichtig, die Effektivität und Übertragbarkeit dieser Verfahren kritisch zu bewerten. Die Relevanz liegt vor allem darin, dass sie ein besseres Ergebnis erzielt als Menschen dies bei derselben Aufgabenstellung tun“, so die Sprecherin von epicenter.works.

Umstrittene Forschung

Michal Kosinskis Arbeiten gelten in Wissenschaftskreisen jener, die sich mit Algorithmen und Gesichtserkennung auseinandersetzen, seit längerem als umstritten. So hat er auch bereits eine Studie zu verantworten, wonach Algorithmen eingesetzt worden waren, um die sexuelle Orientierung zu erschließen.

Update:
Für die Wissenschaftlerin
Lorena Jaume-Palasi, die in Berlin die Ethical Tech Society gegründet hat,  ist alleine die Fragestellung der neuen Studie von Kosinski problematisch. "Allein diese Teilung in konservativ/liberal ist an sich eine Reduktion: Menschen können in manchen Aspekten konservativ, in anderen liberal sein. Je nach Situation und Angebot, können Menschen unterschiedliche Parteien wählen. Das politische Spektrum ist auch wesentlich komplexer, es gibt konservative Liberale und progressive Konservative, usw. Menschen können ihre politische Einstellung verändern und ihr Gesicht verändert sich dabei nicht. Wenn ich einer Software sage: korreliere das Paarungsverhalten der Störche in Brandenburg mit der Geschwindigkeitsüberschreitungen am Brenner Pass, wird der Computer es berechnen, unabhängig davon, ob es Sinn macht", so ihre Kritik. Zudem sei der Glaube, dass durch die Bemessung des Gesichts oder Kopfes mentale Zustände ermittelt werden können, Teil der Phrenologie. "Phrenologie ist der Versuch, rassistische Vorurteile zu verwissenschaftlichen. Es ist eine Pseudowissenschaft", so die Forscherin.

"Jede Form der Gesichtserkennung und Erkennung anderer biometrischer Merkmale ist abzulehnen.“

epicenter.works

Kritik gibt es schon seit langem

Gesichtserkennungstechnologien stehen bereits seit längerem in der Kritik. Die Algorithmen, die etwa vom FBI eingesetzt werden, sollen in 14 Prozent der Fälle ungenau gewesen sein und schon öfters zu falschen Verhaftungen geführt haben. Das betrifft vor allem Menschen mit dunkler Hautfarbe, weil die Systeme hier die größten Probleme haben. San Francisco verbot als erste von mehreren US-Städten den Einsatz der Technologie im öffentlichen Raum. „Jede Form der Gesichtserkennung und Erkennung anderer biometrischer Merkmale ist abzulehnen", sagt epicenter.works.

In Österreich hat die Polizei seit längerem ein Gesichtserkennungstool der Firma Cognitec Systems im Einsatz, um Bilder von vermeintlichen Verbrechern mit ihrer Datenbank abzugleichen. Über die Trefferquote der Software ist nichts bekannt, und für das Innenministerium ist das sogar „irrelevant“, wie aus einer parlamentarischen Anfrage hervor ging. Die Begründung: „Der Abgleich bzw. das Ergebnis des Abgleichs alleine löst keinerlei unmittelbare Reaktion aus.“

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare