Home office during the corona pandemic
© EPA / SASCHA STEINBACH

Science

Hilfe gegen diskriminierende Algorithmen in der Arbeitswelt

Algorithmen bestimmen zunehmend unser Leben. Sie sind etwa dafür verantwortlich, was wir auf Social Media sehen, und was nicht. Wir bekommen oft nur eine kleine Auswahl an Nachrichten angezeigt und nicht alles, was unsere Freund*innen veröffentlichen. Genauso können Algorithmen beeinflussen, dass wir bestimmte Job-Anzeigen gar nicht angezeigt bekommen; oder aber sie können uns im Bewerbungsprozess aussortieren, ohne, dass wir wissen warum.

Der Computer trifft in dem Fall zwar die Entscheidung darüber, aber programmiert wurde das Programm von Menschen. Damit übernehmen Algorithmen auch die bewussten und unbewussten Vorurteile von Menschen.

„Bestehende und häufig auch diskriminierende Muster können sich so in technischen Anwendungen fortsetzen“, sagt Fridolin Herkommer vom Büro für digitale Agenden, AK Wien. Die AK Wien fördert mit dem Digitalisierungsfonds Arbeit 4.0 Forschungsprojekte, die sich mit diesen Herausforderungen auseinandersetzen.

Guidelines für Entwickler*innen

Österreichische Forscher*innen der Johannes Kepler Universität Linz (JKU) arbeiten etwa an Leitlinien für IT-Entwickler*innen, die derartige Algorithmen programmieren. Unter dem Projekttitel DatDA (Datenbasierte Diskriminierung in der Arbeitswelt) wurden Guidelines für Programmierer*innen entwickelt, die sie dabei unterstützen sollen, dass automationsgeschützte Entscheidungsprozesse nicht automatisch zu diskriminierenden Ergebnissen führen.

Wenn Bewerber*innen benachteiligt werden, steht das nämlich im klaren Widerspruch zum Gleichbehandlungsgesetz (GIBG), sowie zu europäischen Verträgen. Das sei auch bei algorithmenbasierten Systemen in der Arbeitswelt zu berücksichtigen, heißt es seitens Elisabeth Greif, Projektverantwortliche der JKU Linz.

Chatbot robot hand pressing computer keyboard enter of Investment in the puppet market

Bei vielen Firmen werden Bewerbungen bereits automatisiert durch Maschinen bearbeitet

Unterstützung beim Bewerbungsprozess

„Gerade im Recruiting-Bereich stehen derzeit KI-Systeme hoch im Kurs, um Bewerber*innen im Vorfeld auszusortieren. Diese Systeme sind nicht diskriminierungsfrei und die Technologie ist auch noch nicht soweit, dass man das sicher ermöglichen kann“, sagt Florian Cech, Projektleiter des Forschungsprojekts DEBIAS (Digitally Eliminating Bias in Applicant Selection) vom Centre for Informatics and Society (CIS) an der Technischen Universität (TU) Wien.

Beim Projekt DEBIAS geht es ebenfalls darum, Vorurteile und Diskriminierung in Bewerbungsprozessen weitgehend auszuhebeln, doch es kommt dabei gänzlich ohne den Einsatz von Algorithmen aus. „Wir wollten kein kompliziertes, technisches System schaffen, dass die Bewertung vornimmt, sondern ein Unterstützungstool für Jobsuchende und Unternehmen“, erzählt Cech im Gespräch mit der futurezone.

„Menschen, die uns optisch besser gefallen, also die größer oder schöner sind, werden als kompetenter wahrgenommen als andere. Das ist kein absichtlicher Wunsch, eine explizite Diskriminierung vorzunehmen."

Florian Cech | Forscher an der TU Wien

Anonymer Chat als Erstkontakt

Bewerber*innen müssen sich dabei im Recruiting-Prozess zuerst in einem anonymen Chat präsentieren. Dabei läuft die Befragung auch nach einem strikten, vorher festgelegten strukturierten Fragebogen ab. Dadurch werden gleich mehrere Vorurteile und unterbewusste Verzerrungen in der Entscheidungsfindung ausgehebelt. Denn Entscheider*innen müssen gar nicht bewusst diskriminieren, sondern das erfolgt oft unbewusst. „Menschen, die uns optisch besser gefallen, also die größer oder schöner sind, werden als kompetenter wahrgenommen als andere. Das ist kein absichtlicher Wunsch, eine explizite Diskriminierung vorzunehmen“, sagt Cech.

Ein anonymer, strukturierter Chat von Fragen, die allen Bewerber*innen in der gleichen Reihenfolge gestellt werden, konzentriert sich auf die Kriterien, die für die Job-Position wichtig sind. „Häufig beginnen Recruiter*innen und Bewerber*innen auch über ähnliche Interessen zu plaudern und schweifen ab. Anderen hingegen werden komplizierte Fachfragen gestellt. Das ist nicht fair gegenüber den unterschiedlichen Bewerber*innen“, so Cech.

Vor einem Erstkontakt sei es daher fairer, wenn sich die Bewerber*innen in einem anonymen Interview präsentieren können, erst in einem zweiten Schritt kommt es zu einem persönlichen Treffen. „Oft ist es für die Recruiter*innen dann eine große Überraschung, wer zum Termin kommt“, erzählt Cech.

Erste Erfahrungsberichte

DEBIAS wurde mit dem TU Career Center als Projektpartnerin bereits mit 6 österreichischen Unternehmen, die zwischen 180 und 50.000 Mitarbeiter*innen haben, sowie Studierenden der TU Wien getestet. Aus Sicht der Bewerber*innen sei DEBIAS erfrischend, heißt es. Die Recruiter*innen empfanden beide Varianten des Austausches als „wichtige Informationsquellen“, die sich gegenseitig gut ergänzen. „Wir wollen das Projekt weiterentwickeln. Wir könnten uns etwa vorstellen, dass es auch im Bereich der öffentlichen Hand eingesetzt werden könnte“, meint Cech.

„Häufig beginnen Recruiter*innen und Bewerber*innen auch über ähnliche Interessen zu plaudern und schweifen ab. Anderen hingegen werden komplizierte Fachfragen gestellt. Das ist nicht fair gegenüber den unterschiedlichen Bewerber*innen."

Florian Cech | Forscher an der TU Wien

Stereotype in Job-Inseraten

Doch manchmal beginnt Diskriminierung gar nicht erst bei der Auswahl der Bewerber*innen, oder dem Bewerbungsgespräch, sondern bereits bei den Stelleninseraten. Forscher*innen der Universität Innsbruck beschäftigen sich im Projekt JADE (Job-Ad-Decoder) damit, dass Stelleninserate häufig Formulierungen enthalten, die stereotype Vorstellungen transportieren. Attribute wie „durchsetzungsfähig“ oder „dynamisch“ in Inseraten für leitende Positionen würden oft männlichen Codes entsprechen, und Frauen fühlen sich dadurch weniger angesprochen.

Das Team rund um Julia Brandl und Petra Eggenhofer-Rehart vom Institut für Organisation und Lernen an der Uni Innsbruck entwickeln einen sogenannten „digitalen Stereotypendecoder“. Dieser soll Unternehmen dabei helfen, ihre Stelleninserate so zu gestalten, dass sie nicht ein Geschlecht mehr oder weniger ansprechen, sondern eine diversitätsfreundliche Unternehmenskultur fördern. Denn es gibt zahlreiche Studien dazu, dass Diversität im Unternehmen Vorteile mit sich bringt. Der Decoder soll auch alternative Formulierungen vorschlagen, damit potenzielle Bewerber*innen nicht durch Sprache abgeschreckt werden.

Veranstaltungstipp 

Am Donnerstag, den 17. Juni 2021, werden zwei der Forschungsprojekte beim Event „Algorithmen an die Arbeitvorgestellt, die sich einer diskriminierungsfreien Anwendung von Algorithmen im Personalmanagement widmen. Anschließend wird in einer Expert*innen-Runde diskutiert. Die Veranstaltung findet von 16 bis 18 Uhr statt. Es handelt sich um eine reine Online-Veranstaltung, bei der man sich hier anmelden kann. Die Teilnahme ist kostenlos.

 

Disclaimer: Dieser Beitrag entstand im Rahmen einer Kooperation zwischen der AK Wien und der futurezone.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare