Wenn Algorithmen über die Impfstoffverteilung entscheiden
Dieser Artikel ist älter als ein Jahr!
„F.ck the Algorithm!“ stand auf einem Protestschild von Ärzten des Stanford University Medical Center. Sie protestierten gegen einen Algorithmus, der nur sieben Ärzte impfen wollte, die direkt mit Patienten arbeiten. Der Algorithmus war eingesetzt worden, um „fair“ zu entscheiden, wer die wertvollen 5000 Impfdosen, die gegen das Coronavirus schützen sollen, erhalten soll.
Doch der Algorithmus hatte klare „Vorlieben“: Er bevorzugte etwa über-60-jährige Ärzte, die seit der Corona-Krise ihre Patienten nur noch von zu Hause aus aus der Ferne behandeln, und nicht etwa jene - oft viel jüngeren - Ärzte, die täglich im Krankenhaus mit dem Coronavirus in Kontakt kommen und demnach einem höheren Risiko ausgesetzt sind, sich anzustecken.
Tod wichtiger als Infektionsrisiko
Der Algorithmus, der am Stanford University Medical Center zum Einsatz kam, war so programmiert worden, dass er Menschen schützen wollte, die das höchste Risiko zu sterben haben - und nicht Menschen, die das höchste Risiko haben, sich mit Corona zu infizieren. So sollten die Impfungen laut Algorithmus an jene älteren Kollegen gehen, die derzeit vor allem Online-Sprechstunden abhalten, und nicht an jene, die derzeit an vorderster Front gegen Covid-19 kämpfen.
Die betroffenen Ärzte empfanden dies nicht als fair uns tauchten bei der Pressekonferenz mit Protestschildern auf. Sie fühlten sich vom Algorithmus benachteiligt. Hinter dem händisch programmierten Algorithmus steckt eine relativ einfache Formel, es kamen keine Methoden wie Machine Learning zum Einsatz. So wurden schlichtweg bestimmte Kriterien wie Alter gegenüber dem Risiko, sich bei der Arbeit mit Covid-19 anzustecken, bevorzugt.
Doch vergessen wurde offenbar, den Algorithmus vor dem Einsatz zu testen und zu hinterfragen, ob er auch tatsächlich die gewünschten Ergebnisse liefern wird. Menschen und Kontrollmechanismen hätten ein derartiges Debakel verhindern können.
Palantir beauftragt
Der Vorfall hat in den USA eine große Diskussion darüber ausgelöst, ob Algorithmen bei derartigen Entscheidungen wirklich eingesetzt werden sollen. Das Stanford University Medical Center ist nämlich bei weitem nicht die einzige Institution, die die Entscheidung, wer als Erstes geimpft wird, Algorithmen überlassen möchte.
Wie die Washington Post berichtet, hat das US-Gesundheitsministerium der Noch-Trump-Regierung eine Partnerschaft mit Palantir geschlossen, mit dem Zweck über die Impfstoff-Verteilung zu entscheiden. Palantir soll eine Lösung bereitstellen, die über Ressourcen und Logistik der Impfstoffverteilung entscheiden soll. „Einfach, fair und gerecht“, soll es laut Projektleiter ablaufen. Was für ein Mechanismus dahinter steckt, ist noch völlig intransparent.
Palantir hat zudem nicht gerade den besten Ruf, wenn es um Entscheidungen geht, die sozial gerecht und fair sein sollen. Das Unternehmen hat in der Vergangenheit bereits mit fragwürdigen Methoden der US-Einwanderungsbehörde dabei geholfen, illegale Immigranten zu suchen. Wenn die Algorithmen, die bei so einer wichtigen Entscheidung wie den Impfungen gegen das Coronavirus, zur Anwendung kommen, geheim bleiben, könnte das Diskriminierung ins US-Gesundheitssystem einzementieren, mahnen Kritiker.
Diskriminierung vorprogrammiert
Wissenschaftler haben bereits vergangenes Jahr festgestellt, dass der Einsatz von Algorithmen im Gesundheitsbereich zu „gefährlichen Ergebnissen“ führen könne, heißt es bei der Washington Post. Die Gesundheitsfirma Optum habe etwa schwarze Patienten weit niedriger gerankt, wenn es um zusätzliche medizinische Leistungen ging als weiße Patienten. Die Firma reagierte daraufhin lediglich mit der Aussage, dass Algorithmen angepasst und regelmäßig überarbeitet werden.
Die Diskriminierung der Algorithmen ist zudem sogar erklärbar. Programmierer sind davon ausgegangen, dass Menschen, die für ihre Gesundheitsvorsorge mehr Geld ausgeben, kränker seien als der Rest der Bevölkerung. In Wahrheit sind diese aber nicht kränker, sondern können sich einfach nur teurere Behandlungen leisten. Die Diskriminierung basiert demnach auf einer falschen Annahme und einem Weltbild der Entscheider, welches ohne entsprechende Kontrollen gefährliche Entscheidungen trifft.
Doch wie soll man jetzt entscheiden, wer eine Corona-Impfung erhält? Viele Experten und Mathematiker, die sich mit Algorithmen befassen, empfehlen hier mehr Transparenz. Wenn Menschen nachvollziehen können, wie ein Algorithmus eine Entscheidung trifft, kann man im Vorfeld Probleme identifizieren, ebenso wie auf beim Programmieren eingebaute Vorurteile. Zudem bedarf es aber auch scharfen Kontrollen.
In Europa entscheiden weitgehend die Regierungen, die gemeinsam mit Experten entsprechende Pläne ausgearbeitet und der Bevölkerung präsentiert haben. Algorithmen sind hier vorerst nicht im Gespräch.
Kommentare