EU-Kommission stellt ethische Leitlinien für KI vor
In den vorgelegten Ethik-Guidelines sind sieben Anforderungen enthalten, die Vertrauen in künstliche Intelligenz (KI) schaffen sollen. Sie betreffen die Fragen nach der Kontrolle, der Sicherheit, dem Datenschutz, der Nichtdiskriminierung, der Nachhaltigkeit, der Verantwortlichkeit und der Transparenz der Algorithmen. In einer Pilotphase will die EU-Kommission nun von Unternehmen, Forschern und Behörden in der ganzen EU wissen, ob diese ethischen Leitlinien für künstliche Intelligenz in die Praxis umgesetzt werden können.
Ein bereits heiß diskutierter Begriff darin ist: "Transparenz". Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden. Sobald KI-Systeme aber selbst lernen und Entscheidungen selbstständig basiert auf Trainingsdaten treffen, wird es mit der Rückverfolgbarkeit, wie es zu einer Entscheidung gekommen ist, bereits schwierig.
Lösen herkömmliche technologische Ansätze mehr oder weniger gezielt Aufgaben nach unserer Vorstellung, können selbstlernende Systeme mitunter ihre eigene Herangehensweise an Probleme entwickeln. So trainierte sich etwa die Google-KI-Software AlphaZero im vergangenen Jahr scheinbar mühelos zum Schachmeister. Das gelang dem System, ohne Menschen beim Spiel zu imitieren. Lediglich die Basisregeln waren AlphaZero bekannt, alles andere lernte die Software in Hunderttausenden Matches gegen sich selbst. Die Architekten von AlphaZero oder ähnlicher Systeme betonen, auch Grundlagen für Systeme schaffen zu wollen, die man auf weit allgemeinere Probleme ansetzen kann. Und hier wird es dann mit dem Punkt "Transparenz" interessant.
Rasche Regeln notwendig
Für den Technikphilosophen Mark Coeckelbergh, der als Experte an der Entwicklung der neuen Guidelines mitgearbeitet hat, braucht es rasch Regeln, sonst drohe der „Wilde Westen“. KI hat vielfach ein Imageproblem, fordert sie doch ihren Schöpfer genau auf dem Gebiet heraus, auf dem sich dessen Identität gründet - dem Denken. Dazu kommen erste Anwendungen, die durchaus dubios erscheinen: Etwa in Systemen zur Gesichtserkennung im öffentlichen Raum oder beim Einsatz von undurchsichtigen Algorithmen, die auf Social Media-Plattformen gehörig dabei mitreden, welche Informationen welche Nutzer erreichen.
Legt der Mensch zukünftig Aufgaben und die damit einhergehenden Entscheidungen in die Hände von KI, muss sichergestellt werden, dass dies nicht abseits von Moral, ethischer Grundhaltungen und gesetzlicher Regeln geschieht. Die rund 50-köpfige Expertengruppe hat daher „Ethische
Leitlinien für vertrauenswürdige KI“ erarbeitet, wie die EU-Kommission am Montag in einer Aussendung mitteilte.
Ethik für KI als "Chance für Europa"
Darüber hinaus gibt das Gremium, in dem sich neben dem an der Universität Wien tätigen
Coeckelbergh drei weitere Vertreter aus Österreich finden, auch Empfehlungen zum Umsetzen der Leitlinien. An dieser Stelle entscheide sich auch, ob diese „Chance für Europa“, hier eine Pionierrolle einzunehmen, ergriffen wird, sagte der Technikphilosoph. „Wir werden diese Vorgaben nun in die Praxis bringen und gleichzeitig eine internationale Diskussion über menschzentrierte KI fördern“, so die EU-Kommissarin für digitale Wirtschaft und Gesellschaft, Mariya Gabriel.
Gerade zu Fragen der Verbindlichkeit gab es in der in etwa zu gleichen Teilen von Experten aus dem akademischen Bereich und Leuten aus der Industrie oder Interessensvertretern zusammengesetzten Gruppe auch durchaus Diskussionsstoff. Angesichts der angestrebten „Balance zwischen der Ethik und dem, was die Industrie will“, sei vieles dann auch eher unkonkret geblieben, so Coeckelbergh, der durchaus die Gefahr sieht, dass die Leitlinien zum Feigenblatt verkommen und kaum etwas davon in die Praxis Einzug hält. Ähnliches berichten auch Experten, die netzpolitik.org aus Deutschland dazu befragt hatte.
Pilotphase vorgesehen
Das Papier sei sicher „ein guter Start“, die Politik müsse dann aber konkrete Schritte daraus ableiten. Im Sommer will die Kommission eine Pilotphase zur Implementierung der Leitlinien starten. Interessenten können im Rahmen der „European AI Alliance“ teilnehmen. Die Ergebnisse dieser Phase sollen dann in einen weiteren Bericht der
Expertengruppe an die Kommission einfließen, heißt es.
Viel Zeit für gute Regulierungen habe man jedenfalls nicht, denn die Technologie „entwickelt sich ziemlich schnell“, so Coeckelbergh. Zumindest sollten Unternehmen dazu verpflichtet werden, nachvollziehbar darzustellen, dass ihre Entwicklungen bestimmte Gruppen nicht benachteiligen und Datenschutz gewährleistet bleibt. So sollte etwa auch eine Agentur eingerichtet werden, die sich mit dem Thema auf europäischer Ebene beschäftigt und für Verbindlichkeit sorgt. Auch auf der Ebene der einzelnen Staaten brauche es Maßnahmen, damit Europa nicht zum „Wilden Westen in Sachen KI“ zu wird.
Regulierung vs. Anreizsysteme
Hier müsse auch nicht immer mit Verboten und Gesetzen gearbeitet werden, man könne auch auf Anreizsysteme setzen. Komme keine Regulierung, läuft man laut Coeckelbergh aber Gefahr, dass die zunehmende Automatisierung neue Probleme mit sich bringt.
Der nunmehrige Prozess innerhalb der
EU ziehe jedenfalls internationale Aufmerksamkeit auf sich, auch wenn etwa in den USA nicht mit dem gleichen Nachdruck in die Richtung gearbeitet werde. In China gebe es zwar bereits eine KI-Strategie inklusive ethischer Richtlinien, angesichts des weitreichenden Einsatzes von Gesichtserkennungssystemen, sei es fraglich, „ob man dort Ethik wirklich ernst nimmt“, so Coeckelbergh.