Die Bild-KI Midjourney stellt sich so ein "KI-Monster" vor, das von der EU reguliert werden muss

Die Bild-KI Midjourney stellt sich so ein "KI-Monster" vor, das von der EU reguliert werden muss

© Midjourney

Netzpolitik

Wie die EU versucht ChatGPT zu bändigen

In den vergangenen Monaten ist künstliche Intelligenz (KI) für viele Menschen erstmals richtig greifbar geworden. Sie können ohne großen Aufwand Fragen an Textgeneratoren wie ChatGPT stellen, oder Bilder und Videos von Programmen wie Midjourney erstellen lassen, die auf Wunsch täuschend echt aussehen.

Mehr als 100 Millionen Leute weltweit probierten bereits derartige Systeme aus. Auch 18 Prozent, also rund ein Fünftel, der Österreicher*innen, haben einer Studie zufolge ChatGPT zumindest getestet

Hinter den Programmen steckt eine sogenannte „generative KI“. Die Entwicklung dieser Technologie steht noch am Beginn, doch man kann bereits sehen, wie „mächtig“ sie als digitales Werkzeug werden kann. In Europa wurde man von der generativen Technologie allerdings regelrecht überrumpelt.

Seit 2021 arbeiten EU-Institutionen mit dem sogenannten „AI Act“ an einem rechtlichen Rahmen, um KI-Anwendungen zu regulieren. Doch im gesamten Rechtsrahmen tauchen ChatGPT und Co. bisher nicht auf. „Wie der Großteil der Welt ist auch die EU von der Konsumentenfreundlichkeit von ChatGPT überrascht worden“, erklärt Clemens Wasner, Vorsitzender des gemeinnützigen Vereins AI Austria

„Die EU ist von der Konsumentenfreundlichkeit von ChatGPT überrascht worden“

Clemens Wasner | KI-Experte von AI Austria

Entwicklung verschlafen

„Erst seit Jänner wird seitens der EU darüber nachgedacht, wie generative KI regulatorisch zu behandeln ist“, sagt Wasner zur futurezone. Das bestätigt auch der EU-Abgeordnete Patrick Breyer aus Deutschland, der der Fraktion der Grünen angehört. „Generative KI wird derzeit weder vom EU-Kommissionsvorschlag noch von dem, was bisher im Parlament vereinbart wurde, explizit abgedeckt“, sagt Breyer. Es sei jedoch der Wunsch da, dies zu integrieren. 

Doch die Umsetzung ist nicht so einfach. Große Sprachmodelle wie ChatGPT sowie Bildgeneratoren wie Midjourney haben aktuell keinen festen Verwendungszweck, sondern gelten als „Allzweck-KI“, die für alles Mögliche eingesetzt werden kann, wie Gedichte schreiben oder Grafiken erstellen. Im EU-Entwurf zur KI werden jedoch je nach Anwendungszweck unterschiedliche Risikostufen festgelegt. 

Ist ChatGPT Hochrisiko?

EU-Abgeordnete schlugen nun etwa vor, dass KI-Systeme wie ChatGPT, die komplexe Texte ohne menschliche Aufsicht produzieren können, grundsätzlich als „Hochrisikosysteme“ eingestuft werden sollten. Für diese gelten spezielle Auflagen. Doch für manche würde das zu weit gehen. „Es ist schwierig zu beurteilen. Wenn eine generative KI wie ChatGPT in Microsoft Office implementiert wird, scheint das erst einmal ziemlich harmlos zu sein. Bis zu dem Punkt, an dem sie zur Ausarbeitung von Gesetzen verwendet wird“, sagt Breyer. 

Der KI-Experte Wasner plädiert daher dafür, Programme wie ChatGPT „je nach eingesetztem Anwendungsfall“ zu regulieren. „Es macht einen Unterschied, für was eine KI verwendet wird“, sagt Wasner. Wenn sich jemand mit ChatGPT auf Basis der eigenen Recherchen einen Text schreiben ließe, wäre das anders zu beurteilen, als wenn das Programm auch zusätzlich noch die Quellenrecherche durchgeführt hätte, sagt Wasner. Auf jeden Fall müsse immer klar gekennzeichnet sein, wenn bei etwas eine KI zum Einsatz kommt.  

Wasner ist überzeugt, dass die EU mit dem AI Act noch eine brauchbare Regulierung hinkriegen wird. Bis dahin könnte es allerdings schon eine weit fortgeschrittenere Form der ChatGPT-Software geben, die mehr Anwendungsfälle abdeckt, als sich die EU jetzt vorstellen kann. Denn in Kraft treten wird der AI Act frühestens 2025.

Die größten Gefahren von ChatGPT

Fake News und gefälschte Bilder
Mit KI-Systemen können leicht und schnell gefälschte Nachrichten oder Hassbotschaften generiert werden, die sich im Anschluss unkontrolliert im Netz verbreiten. Das gilt auch für Bilder von Ereignissen, die gar nicht stattgefunden haben.

Jobs bedroht
Laut einer jüngsten Schätzung von Goldman Sachs könnten bis zu 300 Millionen Jobs in Europa und den USA obsolet werden. Allerdings droht diese Gefahr eher mittelfristig, bzw. viele Jobs werden nicht gänzlich verschwinden, sondern sich durch KI einfach stark verändern.

Cybercrime
Cyberkriminelle könnten ChatGPT-ähnliche Werkzeuge verwenden, um damit relativ einfach Schadsoftware zu entwickeln, um personenbezogene Daten oder Firmeninterna zu stehlen. Betrüger*innen aus nicht-englischsprachigen Ländern könnten KI dazu nutzen, um das oft fehlerhafte Englisch in ihren E-Mails zu verbessern und so nicht so schnell entlarvt zu werden.

Schwierige Forschung
Bei ChatGPT und ähnlichen Programmen handelt es sich um geschlossene Systeme. Unabhängige Forscher haben keinen Zugriff auf den Code im Hintergrund, um die KI-Modelle und ihre Auswirkungen ausreichend untersuchen zu können.

Entwicklungsstopp nur ein "PR-Gag"

Vor Kurzem haben sich einige Tech-Expert*innen, darunter auch der Tesla-Chef Elon Musk, für einen vorübergehenden Entwicklungsstopp starkgemacht, damit eine Regulierung eine Chance hat. Das sieht Wasner jedoch kritisch und unnötig.

Auch Nikolaus Forgo, Professor für Technologierecht an der Uni Wien, hält diesen Vorschlag für einen „PR-Gag“. Er wünscht sich stattdessen eine „breite und kritische Debatte“ darüber, was Europa überhaupt an Regulierung erreichen könne. Dabei sollten auch Informatiker*innen und Wissenschafter*innen eingebunden werden. Forgo spricht sich dafür aus, „sich von der Vorstellung zu verabschieden, dass man mit einem Gesetz alleine alles regeln kann“. 

Was ChatGPT selbst dazu denkt

Es wird gerade sehr viel darüber gesprochen, dass du reguliert werden solltest. Was würdest du denn selbst dazu sagen?
Als eine KI-Sprachmodell-Plattform habe ich keine eigenen Überzeugungen oder Meinungen, und kann daher auch nicht sagen, ob ich denke, dass ich reguliert werden sollte oder nicht. Es ist jedoch wichtig zu beachten, dass der Einsatz von künstlicher Intelligenz und maschinellem Lernen ethische und rechtliche Herausforderungen aufwerfen kann, insbesondere in Bezug auf Datenschutz, Diskriminierung, Transparenz und Verantwortlichkeit.

Es ist daher notwendig, dass Entwickler und Benutzer von KI-Systemen sich bewusst sind und sich an Ethikrichtlinien und Regulierungen halten, um sicherzustellen, dass der Einsatz von KI im Einklang mit gesellschaftlichen Werten und Normen erfolgt. Die Entscheidung, ob und inwieweit KI reguliert werden sollte, ist ein wichtiger Diskussionspunkt und muss unter Berücksichtigung vieler Faktoren getroffen werden.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare