FILES-FRANCE-TECHNOLOGY-DATA-JUSTICE-IT-AI
© APA/AFP/LIONEL BONAVENTURE / LIONEL BONAVENTURE

Netzpolitik

EU-Berater zu KI-Regulierung: "ChatGPT war ein Weckruf für uns"

ChatGPT kann Gedichte formulieren, Beschäftigungsideen für Kinder vorschlagen, aber auch Texte für Phishing-Mails schreiben. EU-Chefberater Paul Nemetz über die Regulierung der Technologie

Künstliche Intelligenz (KI) hat durch den Chatbot ChatGPT erstmals ein Gesicht bekommen. ChatGPT kann natürliche Sprache verstehen und generieren. Das birgt neben Chancen auch viele Risiken: Kriminelle können damit etwa Schadsoftware schreiben oder gefälschte Bilder und Fake News erzeugen. ChatGPT nennt außerdem keine Quellen und liefert nicht immer korrekte Ergebnisse. Grund genug für eine Regulierung. Doch wie sollte diese aussehen? Die futurezone sprach dazu mit Paul Nemitz, dem Chefberater der EU-Kommission.

Paul Nemitz ist Chefberater der Europäischen Kommission der EU. Davor war er Direktor für Grundrechte und Bürgerrechte. In dieser Funktion leitete er die Reform der Datenschutzgrundverordnung

 

futurezone: Warum muss man künstliche Intelligenz (KI) regulieren?
Paul Nemitz: Es gibt neue Herausforderungen und Probleme durch die Technologie. Bisher gab es schon sehr viele ethische Überlegungen zu KI. Doch es hat sich herauskristallisiert, dass Arbeitsgruppen zu Ethik und Selbstverpflichtungen von Unternehmen alleine nicht ausreichen werden, sondern dass es eine rechtliche Regulierung braucht.

Also ein freiwilliges Regelwerk reicht nicht?
Es gibt Firmen, die sich nicht freiwillig an einen Ethik-Codex halten würden. KI verleiht große Macht und wir können es uns als Gesellschaft nicht leisten, diesen Bereich unreguliert zu lassen. Als EU sind wir außerdem ein gemeinsamer Markt und brauchen daher gemeinsame Regeln. Der „AI Act“ der EU verhindert auch eine Fragmentierung in einzelnen Mitgliedstaaten.

In dem Entwurf für das Regelwerk gab es bis vor Kurzem keine Regeln für Chatbots wie ChatGPT. Hat man diese Entwicklungen übersehen?
Natürlich war ChatGPT ein Weckruf für uns. Die Verbreitung zeigt, wie wichtig es ist, dass wir rasch zu einer Regulierung kommen. Aber es ist auch wichtig, in einer Zeit des schnellen technologischen Fortschritts Gesetzesvorhaben möglichst technologieneutral zu formulieren. Gesetze sollen nicht ihre Bedeutung verlieren, wenn eine neue Technologie auf den Markt kommt. Wir sehen gerade, dass das geht. In Italien wurde ChatGPT vorübergehend verboten, obwohl ChatGPT nicht direkt im Gesetzestext erwähnt wird.

ChatGPT sollte also nicht namentlich im AI Act genannt werden?
Es geht nicht darum, ein Handbuch für Ingenieure zu schreiben, sondern ein Werk, das zukunftsoffen ist, um eine längerfristige Gültigkeit zu erreichen.

Wie will man einen Dienst regeln, der einerseits Kuchenrezepte wiedergeben, andererseits aber auch vor Gericht eingesetzt werden könnte?
Es wird strenge Regeln für KI-Systeme mit vielen, möglichen Einsatzzwecken wie Sprach- oder Bilderkennung geben. Diese Systeme werden anwendungsspezifisch reguliert werden. Das heißt, es wird nicht nur Pflichten für die Hersteller geben, sondern auch für jene, die Systeme implementieren werden. Fällt eine Anwendung in den sogenannten Hochrisikobereich, gelten andere Pflichten, als wenn sich damit Kochrezepte erstellen lassen.  

Italien sperrt ChatGPT bis Ende April

Ende März hat die italienische Datenschutzbehörde den Chatbot ChatGPT, der auf künstlicher Intelligenz beruht, wegen Datenschutzbedenken verboten. Der Zugriff wurde in ganz Italien gesperrt. Die Frist der Behörde läuft noch bis zum 30. April, danach kann der Dienst, der vom US-Unternehmen OpenAI betrieben wird, wieder aktiviert werden. Dazu muss die Firma bestimmte Bedingungen erfüllen.

Die Datenschutzbehörde bemängelt, dass Menschen, die den Dienst nutzen, nicht genau informiert werden, was mit ihren personenbezogenen Daten geschieht. OpenAI will der Behörde  die notwendigen Auskünfte fristgerecht erteilen.

Österreich will prüfen

In Österreich bleibt ChatGPT aktiv. Der Digitalisierungsstaatssekretär Florian Tursky (ÖVP) hat sich gegen ein Verbot ausgesprochen. Die österreichische Datenschutzbehörde erklärt gegenüber der futurezone, die Entwicklungen zu verfolgen. „Derzeit läuft ein Informationsprozess auf EU-Ebene, wo die Aufsichtsbehörden auf den gleichen Wissensstand gebracht werden. Danach kann geprüft werden, ob auch in Österreich ein Verfahren eingeleitet wird“, sagt Matthias Schmiedl von der Behörde.

Sie haben das vorübergehende Verbot von ChatGPT in Italien angesprochen. Hat Italien alles richtig gemacht oder war das überzogen?
Ich finde es richtig, was die italienische Behörde gemacht hat. Diese wird von einem Kollegium geführt, das aus zwei Verfassungsrechtlern und einem Rechtsanwalt besteht, die sich in Diskussionen gegenseitig bestärken. Die Arbeit der Behörde ist sehr gut.

In Österreich will die Datenschutzbehörde erst die Konsultationen zu der Causa auf EU-Ebene abwarten. Ist das verständlich, dass nicht jedes EU-Land gleich mit einem Verbot reagiert?
Im Gesetz ist das sehr klar geregelt: Gegen Unternehmen, die keine Niederlassung in Europa haben und im Fall von ChatGPT ist der Fall mit OpenAI sehr klar, sind Datenschutzbehörden aufgerufen, das Recht unmittelbar anzuwenden. Natürlich ist es immer richtig und gut, derartige Vorgehen zu koordinieren. Aber wenn sich jemand wegen ChatGPT beschweren würde, wäre es falsch, zu warten.

In den USA wurde in einem offenen Brief ein vorübergehender Stopp der KI-Entwicklung gefordert. Auch Elon Musk oder Steve Wozniak haben diesen unterzeichnet. Was halten Sie davon?
Es ist sehr wichtig, dass auch in den USA eine Regulierung von KI im Kongress in Angriff genommen und verabschiedet wird. Wenn der Aufruf das bewirken kann, ist es ein wichtiger Schritt nach vorne für Amerika.

China hat  bereits eine KI-Regulierung präsentiert, die viel Zensur enthält, aber in der auch die „Wahrheit“ festgelegt werden soll. Ist das typisch China oder kann Europa etwas davon lernen?
Dass China sich Regeln gibt, ist gut und besser als keine Regeln. Aber das Grundproblem ist, dass eine KI, die nach Werten einer Diktatur entwickelt wurde, per se nicht nach den Werten von Demokratien funktionieren kann und in einer Demokratie auch keinen Platz hat. Das ist ein ähnliches Problem wie bei der Diskussion rund um TikTok oder Huawei (Anmerkung: Beide Firmen stehen in Verdacht, für China über die App bzw. Produkte ausspioniert zu haben. TikTok ist deshalb etwa für EU-Beamte auf Dienstgeräten verboten).

Derzeit sieht es  danach aus, als würden Big-Tech-Player aus den USA den KI-Markt bestimmen. Hat Europa eine Chance?
Dass alle KI-Modelle aus den USA kommen, ist falsch. Es gibt viele Anwendungen, bei denen Europa weit vorne ist. Im Technologiewettlauf brauchen wir uns nicht zu verstecken, wir müssen selbstbewusst weiterforschen und Entwicklungen bis zur Marktreife bringen. Deshalb ist es notwendig, dass sich Europa demokratisch legitimierte Regeln gibt, damit die Wirtschaft künftig profitabel arbeiten kann. Auch Amerika muss sich dieser Verantwortung stellen.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare