OpenAI-CEO Sam Altman bei einer Konferenz in San Francisco

OpenAI-CEO Sam Altman bei einer Konferenz in San Francisco

© EPA / JOHN G. MABANGLO

Netzpolitik

ChatGPT darf nun auch für militärische Zwecke verwendet werden

Bei OpenAI gab es bisher eine Nutzungsregel, die besagte, dass ChatGPT nicht für militärische Zwecke verwendet werden darf. Doch am 10. Jänner verschwand die Regel plötzlich, wie The Intercept berichtet.

Wichtiger Teil gelöscht

Bei der betreffenden Passage geht es um ein Verbot für die Verwendung von ChatGPT für die Entwicklung von Waffen oder für Aktivitäten, die ein "hohes Risiko haben, dass sie Menschen körperlich schaden". Auch die „Verwendung für Militär und Krieg“ war bisher explizit ausgeschlossen. 

Dieser Abschnitt wurde nun umformuliert. Jetzt steht dort, dass ChatGPT nicht dafür verwendet werden darf, „um anderen oder sich selbst zu schaden“. Als Beispiel wird zwar immer noch die Entwicklung von Waffen genannt, aber das Verbot zur „Verwendung für Krieg und Militär“ ist aus dem Absatz gänzlich verschwunden. 

Die Entfernung der Regel kommt zu einer Zeit in der die Nutzungsrichtlinien von ChatGPT allgemein geändert und umgeschrieben werden. Laut OpenAI sollen sie dadurch „verständlicher“ und „besser lesbar“ werden. 

Waffen nein, andere Zwecke schon

The Intercept fragte bei OpenAI nach, was es mit der Entfernung auf sich hat. „Unser Ziel war es, universelle Prinzipien zu schaffen, die leicht zu merken und anzuwenden sind. Insbesondere da unsere Tools mittlerweile weltweit von alltäglichen Benutzer*innen verwendet werden, die jetzt auch GPTs erstellen können“, antwortete OpenAI darauf. „Ein Grundsatz wie ‚Anderen keinen Schaden zufügen‘ ist weit gefasst, aber dennoch leicht verständlich und in vielen Zusammenhängen relevant. Darüber hinaus haben wir als Beispiele ausdrücklich Waffen und die Verletzung anderer angeführt,“ heißt es weiter.

Nicht beantworten wollte OpenAI jedoch die Frage, ob die neue Formulierung nicht zu wage sei und ob sie jede militärische Nutzung ausschließe. Stattdessen meinte OpenAI: „Jede Nutzung unserer Technologie, auch durch das Militär, für die Entwicklung oder die Verwendung von Waffen, um damit andere zu verletzen, Eigentum zu zerstören oder sich an illegalen Aktivitäten zu beteiligen ist nicht zulässig.“

➤ Mehr lesen: Hype um europäischen KI-Gründer: Was hinter Mistral AI steckt

Expert*innen besorgt über Änderungen

Nach Einschätzung der Cybersecurity-Expertin Heidy Khlaaf, die gemeinsam mit OpenAI-Forscher*innen 2022 eine Studie zum Risiko einer militärischen Verwendung von Systemen wie ChatGPT machte, sei die Änderung nicht trivial: „Es gibt einen deutlichen Unterschied zwischen den beiden Richtlinien. Erstere stellt klar, dass Waffenentwicklung sowie Militär und Kriegsführung verboten sind, während letztere flexibler ist und die Einhaltung des Gesetzes betont“, erklärte sie gegenüber The Intercept. Gesetzlich dürften KI-Systeme wie ChatGPT aber sehr wohl in einem gewissen Rahmen für kriegerische Zwecke eingesetzt werden. 

The Intercept hält fest, dass ChatGPT zwar nicht selbst eine Drohne fliegen könnte, die dann im Krieg zur Tötung von Menschen dient. Allerdings wären mit der neuen Formulierung durchaus andere militärische Verwendungen denkbar. Die Software könnte z.B. Programmcodes oder Beschaffungsaufträge schreiben.

KI-Expert*innen glauben, dass sich OpenAI durch die Änderung mehr Spielraum für die Zusammenarbeit mit militärischen Organisationen einräume. Sie vermuten, dass OpenAIs Partnerschaft mit Microsoft etwas mit der Änderung zu tun haben könnte, denn Microsoft arbeitet mit militärischen Organisationen zusammen. 

➤ Mehr lesen: Microsoft-Mitarbeiter protestieren gegen Kriegseinsatz von Hololens

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare