Der AMS-Algorithmus ist ein „Paradebeispiel für Diskriminierung“
Mitarbeiter des Arbeitsmarktservices ( AMS) sollen ab kommendem Jahr bei der Einteilung der Arbeitslosen nach ihrer Aussicht auf einen Arbeitsplatz von einem Computerprogramm unterstützt werden. Dieses Programm wurde im Auftrag des AMS von der Synthesis Forschung GmbH innerhalb von zehn Monaten entwickelt, wie Johannes Kopf, Vorstand des AMS, im futurezone-Interview erklärt hat.
Papier zum Modell veröffentlicht
Die Synthesis Forschung hat vergangenen Freitag ein Papier zum dahinterliegenden „AMS-Arbeitschancenmodell“ veröffentlicht (PDF). Nach diesen darin veröffentlichten Kriterien werden Arbeitslose künftig in drei Gruppen eingeteilt und zwar in jene mit niedrigen, mittleren und hohen Chancen am Arbeitsmarkt. Das Modell soll laut dem AMS-Vorstand Kopf dazu dienen, die Ressourcen der Arbeitsmarktpolitik langfristig effizienter einzusetzen.
„Da das AMS Programme zum Chancenausgleich für einzelne Zielgruppen formuliert, finden sich die entsprechenden Kategorien auch im Chancenmodell“, erklärt Prof. Michael
von der Synthesis Forschung im futurezone-Gespräch.
Punkteabzug für Betreuungspflichten
Konkret wird anhand des veröffentlichten Modells nun ersichtlich, dass es alleine fürs Frausein bestimmte Punkteabzüge gibt (0,14 Punkte), ebenso wie dafür, dass man als Frau womöglich auch noch Betreuungspflichten hat (0,15 Punkte). Die Betreuungspflichten spielen demnach ausschließlich bei weiblichen Personen eine Rolle bei ihren künftigen Jobchancen.
Alle Menschen über 30 bekommen zudem alleine aufgrund ihres Alters Punkteabzüge, ab 50 fallen diese sogar noch drastischer aus (0,7 Punkte). Menschen, die „gesundheitlich beeinträchtigt“ sind bekommen ebenfalls Abzüge im System (0,67 Punkte), ebenso wie Menschen, die aus Nicht-EU-Ländern stammen. Positivpunkte gibt es für eine Lehre. Eine Matura oder höhere Ausbildung zählt nur minimal dazu.
„Die Aussage, dass das System nicht diskriminiert ist schlicht falsch und in den eigenen Unterlagen des AMS dokumentiert: Geschlecht #weiblich negativ zu gewichten ist nichts anderes als #
Diskriminierung, institutionalisiert!“, schrieb dazu etwa der deutsche Datenschutzberater Frank Hermann auf Twitter.
AMS-Vorstand Kopf verteidigt das Modell: „Wenn schon die Berechnung von Marktchancen diskriminierend sein soll, dann wäre der Befund, dass es gewisse Gruppen am Arbeitsmarkt schwieriger haben, selbst wohl auch.“
"Bestehende Vorurteile einzementieren"
„Man weiß jetzt, wie das AMS über seine Kunden denkt. Das wird bestehende Vorurteile einzementieren. Eigentlich müsste man sich, um das wirklich solide sauber machen zu können, noch einmal ganz andere Kategorien überlegen“, meint
Ben Wagner, der am Privacy & Sustainable Computing Lab am Institute for Information Systems & Society an der WU Wien zu Algorithmen forscht, im futurezone-Gespräch.
Auch Florian
, Forscher am Center for Informatics and Society an der Informatikfakultät der TU Wien, sieht in der Festsetzung der Kategorien ein „Paradebeispiel für Diskriminierung“. „Viele Systeme verstecken diese absichtlich in Proxy-Variablen, sodass man gar nicht genau weiß, warum Diskriminierung stattfindet. Beim AMS-Modell ist das hier sehr klar und offensichtlich erkennbar“, sagt Cech zur futurezone.
Beide Experten erklären in Folge auch, warum die Abbildung des Marktes in einem Computermodell nicht klug ist. „In zehn Jahren verändert sich der Arbeitsmarkt und andere Gruppen haben vielleicht bessere Chancen als jetzt. Darauf kann das Modell nicht reagieren. Mit dem jetzigen Modell werden die derzeitigen Umstände als Werte festgeschrieben und sind dynamisch nicht mehr veränderbar. Man verstärkt damit nicht nur Vorurteile, sondern auch die Vor- und Nachteile. Man sucht sich die Stärksten raus und macht sie noch stärker und die Schwächsten noch schwächer“, erklärt Wagner.
Wagner-Pinter von der Synthesis Forschung versucht dies zu entkräften: „Das Modell lässt sich laufend anpassen. Gegenwärtig wird von einer jährlichen Anpassung ausgegangen.“
Mensch als Nummer
Das Computermodell führe zudem dazu, dass man nur noch als Nummer wahrgenommen werde und nicht mehr als Mensch, fährt Wagner fort. „Man zurrt damit ein System fest, das bestimmt, welche Chancen man hat, bevor man auf den Arbeitsmarkt kommt.“ Etwa dass Betreuungspflichten nur bei Frauen negativ angerechnet werden, sei „höchstproblematisch“. „Andere Gesellschaftsmodelle kommen in diesem technischen System gar nicht vor“, sagt Wagner.
Für Wagner-Pinter ist dies „eine bittere Wahrheit für Frauen, die sich im Chancenmodell widerspiegelt.“ „Es gibt Modellvarianten, in denen auch die Betreuungspflicht von Vätern einbezogen ist. Diese erweist sich statistisch als nicht signifikant.“
„Frau-sein ist jetzt und in der Vergangenheit ein Nachteil am Jobmarkt, weil die Gesellschaft strukturell diskriminiert. Durch die Festschreibung dieses Fakts in einem System um Unterstützung zu verteilen, werden Frauen noch weitflächiger benachteiligt”, sagt
Gabriel Grill, der gerade seine Doktorarbeit zu Algorithmen an der University of Michigan schreibt.
Kopf hatte angekündigt, dass es das Ziel gebe, 50 Prozent der Fördermittel für Frauen auszugeben, obwohl ihr Anteil "unterproportional" sei. Selbst wenn das AMS dies durch gezielte Fördermaßnahmen wieder ausgleiche, würde dies eine “doppelte Diskriminierung” sein und daher kein zielführendes Zukunftsmodell, kritisiert Cech.
Morgen erscheint der nächste Teil der Serie:
Warum Menschen Entscheidungen von
Computerprogrammen nur selten widersprechen
Hier geht es zu den anderen Teilen der futurezone-Serie:
Teil 1: Der AMS-Algorithmus ist ein „Paradebeispiel für Diskriminierung“
Teil 2: Warum Menschen Entscheidungen von Computerprogrammen nur selten widersprechen
Teil 3: Wie ihr euch gegen den AMS-Algorithmus wehren könnt
Teil 4: Wo Algorithmen bereits versagt haben
Interview: AMS-Chef: "Mitarbeiter schätzen Jobchancen pessimistischer ein als der Algorithmus"