
Britische Behörden wollen mit einem „Mord-Vorhersage-Programm“ die öffentliche Sicherheit erhöhen. Bürgerrechtsorganisationen schlagen Alarm (Symbolbild).
Britischer Algorithmus soll vorhersagen, wer zum Mörder wird
Britische Behörden arbeiten derzeit an einem „Mord-Vorhersage-Programm“. Das wurde bisher eigentlich geheim gehalten, musste aber wegen eines Auskunftsbegehrens der NGO Statewatch bekannt gemacht werden. Auf Basis polizeilicher und staatlicher Daten zu Verdächtigen, Opfern, Zeugen, Vermissten und Personen, bei denen Sicherheitsbedenken bestehen, soll die Software errechnen können, wer möglicherweise einen Mord begehen könnte.
Mit dem Projekt will die britische Regierung die öffentliche Sicherheit erhöhen. Es befindet sich derzeit noch in Entwicklung und wird nicht eingesetzt. Kritiker schätzen das Programm als sehr bedenklich ein, da algorithmische Systeme zur Vorhersage von Verbrechen oft fehlerhaft und diskriminierend sind.
Psychische Gesundheit, Suchterkrankungen, Behinderung
Laut Statewatch enthalten die Datensätze Informationen zu strafrechtlichen Verurteilungen, in welchem Alter jemand zum ersten Mal Opfer einer Gewalttat wurde und in welchem Alter jemand erstmals Polizeikontakt hatte. Ebenfalls enthalten seien Daten zu psychischer Gesundheit, Suchterkrankungen, Suizid, selbstverletzendem Verhalten, Behinderung und häuslicher Gewalt.
Die NGO gibt an, dass auch Daten von Menschen, die nie strafrechtlich verurteilt wurden, in das Programm einfließen. Die britischen Behörden bestreiten dies jedoch.
➤ Mehr lesen: Lärmpegel: Wie Gegensprechanlagen Verbrechen aufklären sollen
Rassistische Diskriminierung
Sofia Lyall von Statewatch nennt das Programm in einer Aussendung „erschreckend und dystopisch“. Es stufe Menschen als Kriminelle ein, bevor sie überhaupt etwas getan haben: „Dieses neueste Modell, das Daten unserer institutionell rassistischen Polizei und des Innenministeriums nutzt, wird die strukturelle Diskriminierung im Strafrechtssystem verstärken und vergrößern.“
➤ Mehr lesen: Wie KI die eine Hälfte der Bevölkerung diskriminiert
Besonders Menschen, die bereits von Armut und rassistischer Diskriminierung betroffen sind, würden von dem System weiter benachteiligt. Statt auf fragwürdige technologische Lösungen zu setzen, sollten die Behörden lieber in Sozialleistungen investieren, fordert die NGO.
Predictive Policing
In der Vergangenheit hatten britische Behörden bereits Predictive-Policing-Programme entwickelt. Das sogenannte Offender Assessment System (OASys) zum Beispiel sollte einschätzen, wie wahrscheinlich es ist, dass ein verurteilter Täter erneut straffällig wird. Eine Untersuchung des verwendeten algorithmischen Systems zeigte, dass es bei weißen Straftätern akkurater ist als bei solchen anderer Herkunft.
Ein Forschungsbericht für das österreichische Parlament kam im Jahr 2022 zu dem Schluss, dass Predictive Policing datenschutzrechtlich problematisch ist, die Unschuldsvermutung auflösen und zu sich-selbst-erfüllenden Prophezeiungen führen könnte. Das heißt, dass in Gegenden, die wegen algorithmischer Vorhersagen stärker polizeilich überwacht werden, auch mehr Straftaten registriert würden. Die Forscherinnen und Forscher sehen derartige Systeme aufgrund ihrer zahlreichen Makel als potenzielle Belastung für das österreichische Justizsystem.
Kommentare