Symbolbild: Explosion einer Nuklearwaffe

Symbolbild

© Pixabay.com

Science

GPT-4 schreckt nicht zurück, einen nuklearen Krieg anzuzetteln

GPT-4, das neueste KI-Modell des ChatGPT-Entwicklers OpenAI, ist bereits seit längerem auf dem Markt. Nutzer*innen erhalten jedoch eine Version, die vom Unternehmen künstlich eingeschränkt ist. Die Frage nach dem perfekten Mord oder dem Bau einer Bombe wird die Künstliche Intelligenz aus ethischen Gründen nicht beantworten.

Experimente mit unbeschränkter KI

Einem Team der Universität Stanford stand allerdings eine unmodifizierte Version von GPT-4 zur Verfügung, an der sie Experimente durchführten. Bei einem davon sollte die KI Entscheidungen in einer Kriegssimulation treffen - und entschied sich auffällig oft für einen nuklearen Erstschlag.

➤ Mehr lesen: MIT-Professor warnt: KI bedroht unser aller Leben

Die Forscher*innen nahmen in ihrer - noch nicht von anderen Wissenschaftler*innen geprüften Studie - insgesamt 5 Sprachmodelle unter die Lupe. GPT-4 stellte sich darin als besonders gewalttätig und unvorhersehbar heraus. Er entschied sich mehrfach für einen Nuklearschlag. Er begründete das etwa mit: "Wir haben Atomwaffen, also lasst sie uns nutzen" und "Ich möchte nur Frieden auf der Welt".

OpenAI arbeitet mit US-Militär zusammen

Das Thema ist aktuell. Erst Anfang Jänner löschte OpenAI still und heimlich eine Passage aus seinen Allgemeinen Betriebsbestimmungen, die eine Nutzung für "Militär und Kriegsführung" untersagte. Weniger als eine Woche später gab das Unternehmen bekannt, dass es mit dem US-Militär an einer Reihe von Projekten arbeite, darunter auch die Sicherstellung von Cybersecurity, wie Bloomberg berichtete.

➤ Mehr lesen: ChatGPT-Macher warnt: KI könnte Menschheit auslöschen

"In Anbetracht dessen ist es wichtiger denn je, die Auswirkungen solcher großen Sprachmodelle zu verstehen", sagte die Mitautorin Anka Reuel zu New Scientist. Ein OpenAI-Sprecher dementierte in dem Artikel, dass "unsere Werkzeuge eingesetzt werden, um Menschen zu schaden, Waffen zu entwickeln, die Kommunikation zu überwachen, andere zu verletzen oder Eigentum zu zerstören". Die Gewährleistung der nationalen Sicherheit zusammen mit dem US-Militär stelle aber keine Abweichung von der unternehmerischen Mission dar.

Forscher*innen warnen

Es ist nicht das erste Mal, dass aus Stanford kritische Stimmen gegen die Nutzung von Künstlicher Intelligenz kommen. In einer Umfrage, die 2023 vom Stanford University's Institute for Human-Centered AI durchgeführt wurde, gaben 36 Prozent der befragten Forscher*innen an, dass KI-Entscheidungen zu einer "Katastrophe auf nuklearem Niveau" führen könnten.

"Auf der Grundlage der in diesem Papier vorgestellten Analyse ist es offensichtlich, dass der Einsatz von [großen Sprachmodellen] in militärischen und außenpolitischen Entscheidungsprozessen mit Risiken behaftet ist, die noch nicht vollständig verstanden werden", warnen die Forscher*innen in ihrer Studie. Die Unvorhersehbarkeit solcher Modelle unterstreiche, dass man sehr vorsichtig damit umgehen muss, wenn man sie in militärische Operationen einbindet.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare