Netzpolitik

Kritik an EU-Regeln für künstliche Intelligenz

Die EU will künstliche Intelligenz (KI) in Europa streng regulieren und dafür mit einem eigenen Gesetz zur Regulierung von automatisierten Entscheidungssystemen „klare Richtlinien“ schaffen (wir haben berichtet). Doch wird dies auch gelingen?

Es gibt nämlich viele Bereiche, die nicht gesetzlich geregelt werden, kritisiert Daniela Zimmer, Konsumentenschützerin bei der Arbeiterkammer (AK) Wien. Offiziell deshalb, weil, von ihnen „keine Gefahr“ drohe, wie es heißt. Zimmer sieht dies allerdings anders. „Unser Leben wird in viel größerem Maß von automatisierten Verfahren beeinflusst, als das geplante EU-Gesetzesvorhaben abbildet“, sagt Zimmer im Gespräch mit der futurezone.

Was alles nicht reguliert werden soll

Das können einerseits algorithmische Kategorisierungen bei Krankenversicherungen in Bezug auf die Gesundheit sein, Bonitätsscoring von Banken, von denen man Plus- und Minuspunkte bekommt, andererseits zielgerichtete Online-Werbung bei Social-Media-Diensten wie Facebook. Ein Beispiel aus der Praxis: Eine bestimmte Job-Anzeige auf Facebook, die spezielle zukünftige Führungskräfte ansprechen soll, wird ausschließlich Männern zwischen 30 und 40 angezeigt, Frauen sowie Personen anderer Altersgruppen sehen diese nicht und können sich in Folge auch nicht für diese Position bewerben. Derartige Dinge sollen im Gesetz nicht reguliert werden.

„In dem gesamten Gesetz ist weder ein allgemeines Diskriminierungsverbot verankert, noch wird genau normiert, in welchem Zustand KI auf den Markt kommen darf“, sagt Zimmer. Zudem verfügen heutzutage viele „smarte“ Konsumgüter über eine eingebaute KI, die Konsument*innen bewusst benachteiligen können. „KI berührt immer öfter Verbraucher in Kontexten, die man heutzutage noch gar nicht erahnen kann“, sagt Zimmer.

Doch all diese Bereiche bleiben gänzlich unreguliert, weil sie nicht unter „hochriskante“ Anwendungen fallen. „Unser Zugang wäre es deshalb, abgestufte Regelungen zu schaffen“, sagt Zimmer. „Außerdem wurden die Bedürfnisse der Bürger*innen und Konsument*innen überhaupt nicht mitgedacht“, so die Konsumentenschützerin.

„Für Betroffene bleibt all das weiterhin eine Blackbox."

Daniela Zimmer | AK-Expertin für Konsumentenschutz

Keine (neuen) Rechte für Konsument*innen

Wer sich gegen eine automatisierte Entscheidung wehren will, oder zumindest wissen will, wie diese zustande kam, bekommt mit diesem Gesetz nämlich keine neuen Rechte. „Es fehlt ein Recht auf Information und Selbstbestimmung in Bezug auf die Möglichkeit, KI-Entscheidungen basierend auf persönlichen Daten auch abzulehnen. Außerdem gibt es praktisch keine Beschwerderechte“, sagt Zimmer. Zwar gibt es in der Datenschutzgrundverordnung (DSGVO) teilweise derartige Rechte, doch damit ist es laut Zimmer nicht getan. „Es fehlt ein Punkt, dass alle KI-Entscheidungen tatsächlich erklär- und überprüfbar bleiben müssen“, so die Expertin.

Man hätte das KI-Gesetz dazu heranziehen müssen, für Konsument*innen erklärbar zu machen, warum jemand ein bestimmtes Ranking bei einer Bank erhalten hat, das von einer Maschine erstellt worden ist. Oder warum jemand von einer privaten Versicherung abgelehnt wird, weil ein Computer „nein“ gesagt hat. „Für Betroffene bleibt all das weiterhin eine Blackbox“, sagt Zimmer. Die Verbraucherschützerin wünscht sich zudem die Möglichkeit für Verbandsklagen sowie Streitschlichtungsstellen. Denn in Zukunft, mit voranschreitendem Einsatz von KI in allen Branchen, werden sich Fälle, die mehrere Konsument*innen betreffen, häufen. „Man vertut eine große Chance, wenn man das jetzt nicht in diesem Gesetz regelt“, sagt Zimmer.

Noch nicht fertig verhandelt

Das geplante EU-Gesetz ist aber noch keineswegs fertig verhandelt. Sowohl Rat als auch Parlament haben noch ein Mitspracherecht und können es noch verändern. Für gewisse Bereiche sieht es außerdem sehr scharfe Maßnahmen vor: So darf die Entscheidung, welche neuen Arbeitskräfte eingestellt werden, etwa nicht alleine von einem Computer getroffen werden. Außerdem wird die biometrische Videoüberwachung und Gesichtserkennung an öffentlichen Orten grundsätzlich verboten. Es wird allerdings einige eng definierte Ausnahmefälle hierfür geben, wie etwa die Suche nach vermissten Kindern. Für Zimmer ist allerdings auch der Einsatz  von biometrischen Systemen im Alltag aus Gründen der Datensicherheit ein Problem.

Viele Menschen sind es mittlerweile gewohnt, per Fingerabdruck den Laptop oder das Smartphone zu entsperren. Doch wird ein Fingerabdruck einmal gestohlen, hat dieser Datenklau dauerhafte Folgen. „Ist der Schlüssel weg, kann man ihn nachmachen lassen,  einen neuen Finger nicht“, warnt Zimmer.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen