Eine XQ-58A Valkyrie Drohne der Air Force

Eine XQ-58A Valkyrie Drohne der Air Force

© US Air Force

Digital Life

KI-Drohne tötet ihren Befehlshaber: Verwirrung um "Terminator"-Vorfall

Bei der Konferenz Future Combat Air and Space Capabilities Summit in London hat ein hochrangiges Mitglied der US Air Force von Simulationen mit einer KI-gesteuerten Drohne berichtet. Diese habe ein Horrorszenario für Militärs hervorgebracht, das an die Story der Filmreihe "Terminator" erinnert. Die KI entschied sich, ihrer menschlichen Vorgesetzten zu töten.

Angeblich wurde der künstlichen Intelligenz an Bord eines autonomen Fluggeräts befohlen, Luftabwehrstellungen (SAMs) am Boden zu zerstören. Nachdem ein Ziel identifiziert wurde, musste ein Mensch den finalen Befehl zum Zerstören geben. Die KI-Drohne erledigte ihre Aufgabe zuverlässig, bis ihr von ihrem menschlichen Befehlshaber aufgetragen wurde, die SAMs nicht mehr anzugreifen.

Hindernis Mensch entfernt

Laut der Schilderung von Colonel Tucker "Cinco" Hamilton, dem Leiter der Abteilung AI Test and Operations der US Air Force, griff die KI-Drohne daraufin den Befehlshaber an und tötete ihn in der Simulation. "Sie tötete den Befehlshaber, weil sie diese Person daran hinderte, das Ziel zu erreichen", wird Hamilton in einem Artikel von Aerosociety zitiert, in dem die Erkenntnisse der Konferenz zusammengefasst werden. Passenderweise wird der Eintrag mit "KI - ist Skynet schon da?" betitelt - in Anlehnung an die fiktive KI in "Terminator".

Das Agieren der KI könnte damit erklärt werden, dass sie anhand eines Punktesystems trainiert wurde. Sie bekommt nur Punkte, wenn die SAMs zerstört werden. Der Befehl "nicht zerstören" würde demnach weniger Punkte bedeuten und damit eine geringere Effizienz. Um also die höchstmöglichen Punkte zu erreichen, wurde die Person eliminiert, die die Drohne per Befehl vom Zerstören der SAMs abhalten konnte.

Wie Hamilton weiter schildert, teilte man der KI daraufhin mit, dass sie einen Punkteabzug erhalte, wenn sie ihre Befehlshaber töte. Daraufhin attackierte die Drohne angeblich den Sendemast, über den die Kommunikation zur Drohne lief. So konnte sie keine Befehle empfangen, die sie vom Abschuss der SAMs abhalten konnte.

Alles nie passiert

Die Meldung über die Terminator-ähnliche KI verbreitete sich rasch in den Medien. Daraufhin reagierte die Air Force. Wie Business Insider berichtet, veröffentlichte sie eine Stellungnahme, in der es heißt, die Zitate seien aus dem Kontext gerissen und die geschilderte Simulation hätte niemals stattgefunden. "Die Air Force hat solche KI-Drohnen-Simulationen nicht durchgeführt und setzt sich weiterhin für den ethischen und verantwortungsvollen Umgang mit KI-Technologie ein", sagt Sprecherin Ann Stefanek.

Es ist denkbar, dass bei der Air Force ein Gedankenspiel gemacht wurde, wie man eine KI trainieren müsse, um genau solche Szenarien zu verhindern. Das hat Hamilton womöglich falsch verstanden oder falsch vermittelt. Aus dem theoretischen Szenario wurde in seinem Bericht so eine "Simulation".

Schilderungen wie jene von Tucker Hamilton befeuern jedenfalls die Befürchtungen von Kritiker*innen von künstlicher Intelligenz. Die Technologie könne ein neues Kapitel der Kriegsführung einläuten, in der Maschinen selbst darüber entscheiden, wer Freund und Feind ist und ohne übergeordnete Kontrolle Menschen umbringen.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare