Netzpolitik
18.10.2018

"AMS-Sachbearbeiter erkennen nicht, wann ein Programm falsch liegt"

Der AMS-Algorithmus soll Mitarbeitern bei ihren Entscheidungen helfen. Doch diese könnten sich künftig ganz auf ihn verlassen.

Ein Computerprogramm soll ab 2019 die Arbeitsmarktchancen von Arbeitslosen berechnen. Wer mit 66-prozentiger Wahrscheinlichkeit innerhalb von sieben Monaten wieder einen Job haben wird, soll künftig als Person mit hoher Arbeitsmarktchance gelten. Wer weniger als 25 Prozent Chance hat innerhalb von zwei Jahren einen Job zu bekommen, gilt dann als Kunde mit niedrigen Chancen. Das Programm soll eine Hilfestellung für Mitarbeiter sein, um die Arbeitsmarktchancen besser einschätzen zu können, wie Johannes Kopf im futurezone-Interview betont. Sowohl Experten von der TU Wien als auch der WU Wien sehen dies jedoch kritisch.

"Computer als neutral-objektiv"

Laut Kopf soll dass das Computerprogramm den Sachbearbeitern nur bei ihren Entscheidungen helfen, diese aber nicht für sie treffen. Ben Wagner, der am Privacy & Sustainable Computing Lab am Institute for Information Systems & Society an der WU Wien zu Algorithmen forscht, meint dazu im futurezone-Gespräch: „Es ist ein wahnsinniger Aufwand im AMS-Verwaltungsprozess sich über automatisierte Entscheidungen hinwegzusetzen. Ein Computersystem wird schnell zu einer neutral-objektiven Meinung. Das ist Standard bei derartigen Systemen und es findet relativ rasch eine Entsolidarisierung statt.“

Mit „Entsolidarisierung“ meint er, dass der Computer langfristig betrachtet keine Unterstützungsfunktion haben wird, sondern alles darauf hinausläuft, dass er die Entscheidung eines Tages selbstständig treffen wird. „Das ist bei der Verteilung von Leistung problematisch.“ Dies schließt das AMS derzeit vehement aus.

Beeinflussung durch Computer belegbar

Zahlreiche wissenschaftliche Studien belegen, dass Menschen sich von einem Computerergebnis immer beeinflussen lassen. Auch Wagner kommt in der von ihm mitdurchgeführten Europa-Studie „Algorithms and Human Rights“ (PDF) zu dieser Conclusio. „Es ist einfacher, vor allem auch im Problemfall, zu sagen: ,Der Computer hat das so festgestellt’, anstatt selbst Verantwortung zu tragen und eine Entscheidung über die Zukunft eines Menschen zu treffen”, sagt Gabriel Grill, der gerade seine Doktorarbeit zu Algorithmen an der University of Michigan schreibt.

Florian Cech, Forscher am Center for Informatics and Society an der Informatikfakultät der TU Wien, ergänzt: „Selbst wenn Sacharbeiter wissen, dass sie sich nicht an dem Computerprogramm orientieren müssen, hat die bloße Anzeige des Ergebnisses Auswirkungen auf ihre Entscheidungen.“

Fehlerquote und Entscheidungen

Cech fragt zudem: „Wie viel Handlungsspielraum haben Sachbearbeiter tatsächlich, wenn sie nicht geschult und trainiert sind, um in so einem System eine Entscheidung zu hinterfragen? Auf der Basis von welchen Informationen können sie dann eine Entscheidung treffen? Ist den AMS-Sachbearbeitern außerdem bewusst, dass es sich um einen statistischen Algorithmus handelt, dass dieser eine Fehlerquote hat und dass die Ergebnisse damit eigentlich nicht vertrauenswürdig sind?“

„Die ausgewiesene ,Trefferquote' ermutigt die AMS-Beraterinnen und -Berater dazu, ihre eigenen persönlichen Einschätzungen einzubringen. Diese wissen, dass eine ,Chance' eine ,Chance' ist und nicht eine ,Gewissheit'“, erklärt Prof. Michael Wagner-Pinter von der Synthesis Forschung GmbH im futurezone-Gespräch.

Laut Angaben des AMS-Vorstands Johann Kopf liegt die Trefferquote des Computerprogramms im Schnitt bei 85 Prozent. Genauere Zahlen, also ob der Algorithmus bei Männer oder bei Frauen besser abschneidet, sind nicht bekannt. Wenn man diese Angaben nun auf die derartigen Arbeitslosenstatistiken anwendet, würde diese Quote zirka 50.000 Menschen pro Jahr betreffen, die vom Computersystem falsch eingeordnet werden. Konkrete Auswirkungen hätte das in etwa insofern, als dass sie eine bestimmte Zusatzausbildung oder Schulung vom AMS nicht genehmigt bekommen, weil sie in eine falsche Kategorie gesteckt werden.

Mitarbeiter müssen sich rechtfertigen

Ab 2020 sollen dann mit den Erfahrungen, die durch die Nutzung des Algorithmus gesammelt werden, die Angebote an Arbeitslose adaptiert werden, wie Der Standard berichtet. Bei Personen mit guten Chancen am Arbeitsmarkt geht das AMS davon aus, dass weniger Interventionsbedarf besteht. Diese bekommen dann etwa keine Extra-Schulungen, weil sie sowieso vermittelt werden. Bei Menschen mit mittlerer Perspektive am Arbeitsmarkt könnten die Förderungen dagegen konzentriert werden, weil man sich hier die größte Wirkung von Programmen erhofft. Bei Menschen, die vom Algorithmus in die Gruppe mit schlechter Perspektive eingeteilt werden, könnten in Zukunft nur noch niederschwellige Basis-Angebote zum Zug kommen.

Wagner kritisiert, dass das Computerprogramm zudem praktisch eine „Quasi-Entscheidung“ fällt. Sachbearbeiter sollen Arbeitssuchende nämlich etwa nur dann runterstufen können, wenn es eine „zusätzliche Evaluierung“ gibt, die in einem solchen Fall vorgeschrieben ist. „Sobald es explizite Regeln für Entscheidungen gibt, machen es diese noch schlimmer und kein Mitarbeiter traut sich mehr, sich dem Programm zu widersetzen. Das belegen zahlreiche Studien zu dem Thema“, erklärt Cech.

Nachbesserungsbedarf

Die Wissenschaftler sehen noch einen „großen Nachbesserungsbedarf“, wenn es um den AMS-Algorithmus geht. „Hier muss es vor allem um ethische Fragestellungen gehen. Etwa, ob eine Fehlerquote, die derart konkrete Auswirkungen auf die Lebensgestaltung von Menschen hat, wirklich etwas ist, das wir als Gesellschaft akzeptieren wollen. Für mich wäre das nicht ausreichend. Ich befürchte außerdem, dass Sachbearbeiter nicht im Stande sein werden zu erkennen, wenn ein Algorithmus falsch liegt.“

Der Einsatz des Algorithmus sollte zudem noch einer sozialverträglichen Prüfung unterzogen werden, heißt es. Zudem fehle es an einer breiten, fächerübergreifenden Diskussion. „Zuerst probiert man so etwas aus, und schaut, ob es funktioniert. Dann weitet man es aus“, sagt Wagner. Dies dürfe nicht ohne Miteinbeziehung der Öffentlichkeit passieren.

Lest morgen:
Was das AMS-Modell und Datenschutz miteinander zu tun haben.

Teil 1: Der AMS-Algorithmus ist ein „Paradebeispiel für Diskriminierung“
Teil 2: Warum Menschen Entscheidungen von Computerprogrammen nur selten widersprechen
Teil 3:
Wie ihr euch gegen den AMS-Algorithmus wehren könnt
Teil 4: Wo Algorithmen bereits versagt haben

Interview: AMS-Chef: "Mitarbeiter schätzen Jobchancen pessimistischer ein als der Algorithmus"