AUFNAHMETESTS FÜR DIE MEDIZINISCHE UNIVERSITÄT WIEN
© APA/HERBERT NEUBAUER / HERBERT NEUBAUER

Digital Life

Unilever lässt Job-Bewerber von Algorithmus bewerten

Kandidaten werden per Video-Call mit Smartphone oder Laptop interviewt und ein Algorithmus wählt dann den jeweils am besten geeigneten Kandidaten für das Unternehmen aus. Dabei werden rund 25.000 Informationen berechnet und berücksichtigt. Das sind einerseits die Gesichtsausdrücke, die Gesten, die jemand beim Interview macht, aber auch die Ausdrucksweise und sprachlichen Fähigkeiten werden berücksichtigt. Das berichtet der britische „Telegraph“.

Diese neuartige Methode wird in Großbritannien nun von Unilever bei Bewerbern eingesetzt.

Hirevue-Software

Spricht etwa jemand zu schnell, der sich für eine Sales-Tätigkeit bewirbt, kann das bedeuten, dass man die Person häufig nicht verstehe, heißt es in dem Bericht. Spricht jemand zu langsam, sei die Person aber ebenso wenig für die Stelle geeignet. Ebenfalls wichtig ist die Sprache an sich: Es sei entscheidend, ob jemand mehr aktive oder passive Wörter verwendet, oder häufiger vom „ich“ oder vom „wir“ spricht, heißt es.

Hinter der eingesetzten Technologie steckt die US-Firma Hirevue, die diese Interviewtechnologie aus künstlicher Intelligenz und Gesichtserkennung entwickelt hat. Hirevue gibt an, dass in Großbritannien bereits 100.000 Job-Interviews mit dem Programm durchgeführt worden seien. Eine Firma gab an, dank der neuen Methode eine höhere Sales-Erfolgsrate von 15 Prozent erzielt haben, weil die Mitarbeiter besser passen würden, heißt es in dem Bericht.

Funktioniert nur für die Norm

Anna Cox, Professor der Mensch-Maschine-Interaktion an der London's Global University (UCL), kritisierte etwa, dass die Technologie eingebaute Vorurteile habe und Kandidaten diskriminieren würde, die sich außerhalb der Norm verhalten würden. „Die Software wird Personen bevorzugen, die gut sind bei Interviews, bei Video-Aufnahmen generell. Außerdem hat jedes Datenset Vorurteile. Und das bedeutet, dass Menschen und Kandidaten aussortiert werden, die trotzdem gut geeignet und talentiert sind“, so Cox.

Als Beispiel: Helle Augenbrauen können von der Maschine möglicherweise nicht gut identifiziert werden und diese erkennt diese Gesten dann nicht. Gesten und Emotionen sind aber ein entscheidender Teil bei der Gesichtsfeldanalyse. Genauso gut könnten wilde Gesten mit dunklen Augenbrauen nachteilig auswirken, weil es der Maschine eintrainiert worden war, dass Menschen mit diesen Merkmalen für gewisse Jobs nicht geeignet seien.

Es soll auch Menschen geben, die bei Videos nervös werden und sich anders verhalten, als wenn sie nicht beobachtet werden. Für diese ist eine derartige Software auch von Nachteil, weil sie sich nicht so verhalten, wie sonst.

Warum das problematisch ist

Gefährlich wird der Einsatz derartiger Programme vor allem, wenn sie zur Norm werden und von vielen Firmen eingesetzt werden. In den USA ist es etwa bereits passiert, dass ein Student keinen Job an der Supermarkt-Kassa bekommen hatte, weil alle Supermarkt-Ketten dieselbe Bewerbungssoftware eingesetzt hatten.

Diese diskriminierte den Studenten aufgrund seiner bipolaren Störung, die der Algorithmus erkannt hatte. Diese hatte der Mann jedoch medikamentös gut im Griff. Je breiter derartige technologische Lösungen eingesetzt werden, desto schwerwiegender sind die Auswirkungen auf die Gesellschaft, warnen Wissenschaftler.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare