Beyoncé
Beyoncé
© APA/AFP

Netzpolitik

Wales: Gesichtserkennung vor Beyonce-Konzert sorgt für Unmut

Am Mittwochabend wurden für das Beyonce-Konzert in Cardiff (Wales, Großbritannien) tausende Fans erwartet. Doch sie erwartete auch eine Überraschung: Im Stadtzentrum wurden ihre Gesichter gescannt. Das berichten BBC und Guardian.

Mit den Kameras im Stadtzentrum und dem eingesetzten Gesichtserkennungssystem sollen Menschen in Echtzeit identifiziert werden, die für bereits vergangene Verbrechen gesucht werden. Außerdem soll mit den Kameras dafür gesorgt werden, dass sich alle Menschen gegenüber vulnerablen Gruppen wie Kindern korrekt verhalten, heißt es im BBC-Bericht.

Kameraaufnahmen werden 31 Tage gespeichert

60.000 Menschen die am Weg zum Stadium, in dem das Beyonce-Konzert stattfand, durch die Stadt mussten, sind von der Erfassung der Gesichter mittels Kameras und neuen Technologien wie künstlicher Intelligenz (KI) betroffen gewesen.

Laut der Polizei von South Wales sollen die biometrischen Daten nicht gespeichert werden, wenn man nicht einer der Gesuchten ist. Die Aufnahmen aus den Überwachungskameras sollen allerdings bis zu 31 Tage lang gespeichert werden.

Scharfe Kritik am Einsatz

Bisher war Überwachung mittels Gesichtserkennung in Großbritannien nur bei sehr limitierten Events und Spezial-Operationen eingesetzt worden, wie etwa bei großen Fußballspielen oder während der „Coronation“ in London, als es Proteste gab.

Daragh Murray, ein Lehrender an der Queen Mary Universität in London, hält diese „Normalisierung des Einsatzes von invasiven Überwachungstechniken bedenklich“, vor allem weil sie ohne echte öffentliche Debatte ablaufen würden. „Ich kann mir nicht vorstellen, dass es für ein Konzert oder Rugby Match wirklich notwendig ist“, so Murray zum Guardian.

Der Biometrie- und Überwachungskamera-Beauftragte Professor Fraser Sampson glaubt, dass Gesichtserkennung im Polizeieinsatz zunehmen wird und hält das für ein Problem. Die Fehlerquote derartiger Systeme sei bedenklich, so Murray. Außerdem würden derartige Systeme nach wie vor großen "Bias" beinhalten, also etwa Migrant*innen oder auch Frauen und Transgender-Personen häufiger falsch identifizieren als weiße Männer. Das liegt daran, dass die Systeme nicht ausreichend mit Daten dieser Gruppen trainiert wurden.

Tatsächlich gab es bereits mehrfach Fälle, bei denen ein falscher Gesichtsscan zu einem nicht gerechtfertigten Gefängnisaufenthalt geführt hatte.

EU verbietet Echtzeit-Einsatz im AI Act

In Österreich setzt die Polizei seit 1. August 2020 Gesichtserkennungssoftware ein, allerdings nicht in Echtzeit, weil es dafür hierzulande keine Gesetzesgrundlage gibt.

In Europa sieht die Ausgangslage dazu auch etwas anders aus. So hat das EU-Parlament mit dem AI Act gerade dagegen gestimmt, dass Echtzeit-Überwachung mittels Gesichtserkennung an öffentlichen Plätzen stattfinden soll. Allerdings sollen auch hier Ausnahmen vorgesehen werden. Ausnahmen, die möglicherweise den „Schutz vulnerabler Gruppen“, also das Argument der Polizei in Wales, rechtfertigen könnten.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare