© US Navy

Debatte

"Killer-Roboter": Trotz Widerstands im Kommen

"Maschinen fehlt Moralität und Sterblichkeit, deshalb sollten sie keine Macht über Leben und Tod eines Menschen besitzen", sagte Christof Heyns

vor dem Menschrechtsrat der Vereinten Nationen ( UNO) in Genf. DerUN-Spezialberichterstatterforderte ein Moratorium für autonome, tödliche Robotik. Heyns ist nicht der Erste, der ein Verbot von selbstständig agierenden Kampfmaschinen fordert und wird auch nicht der Letzte sein.

Noch sind "Killer-Roboter", die nach eigener Einschätzung direkt auf Menschen feuern, nicht im Einsatz, und so soll es laut Heyns auch bleiben. Doch die Entwicklung auf dem Gebiet geht rasant voran. Gesetzliche Regelungen dazu fehlen noch. Mehrere Menschenrechtsgruppen arbeiten mit Hochdruck an der Durchsetzung eines internationalen Abkommens. Währenddessen wird vermutet, dass mehrere Staaten massive militärische Anstrengungen zur Entwicklung von "Killer-Robotern" unternehmen.

Luft, Land und Wasser
Einige dieser Entwicklungen bekommt man hie und da auch zu sehen. Anfang Mai legte die US-amerikanische Stealth-Drohne X-47B ihren ersten Start von einem Flugzeugträger hin. Das ansonsten ferngesteuerte unbemannte Fluggerät (UAV) kann laut The Guardian auch selbstständig fliegen und - derzeit ausschließlich auf festem Untergrund - landen. Die britische UAV-Entwicklung Taranis kann sich eigenständig gegen feindliche Flugzeuge verteidigen.

Neben autonom operierenden Drohnen gelten Maschinen mit Kettenantrieb, Maschinengewehr und mehrfacher Sensorausstattung meist als Inbegriff des "Killer-Roboters". Im Zuge der UNO-Forderung nach einem Moratorium wurde etwa der südkoreanische SGR-1-Roboter vielfach als Beispiel herangezogen. Dieser patroulliert seit 2006 an der demilitarisierten Zone zwischen Nord- und Südkorea und kann Ziele selbstständig erkennen und mit tödlicher und nicht-tödlicher Munition beschießen.

In der Fliegerabwehr und Bekämpfung von Raketen und Mörsergranaten sind autonome, bewaffnete Roboter seit langem Realität. Das wohl bekannteste derartige System nennt sich Phalanx CIWS. Letzteres Akronym steht für "closed-in weapons system": Phalanx erkennt Ziele mittels eines eingebauten Radars und entscheidet selbst, ob es sich um eine Bedrohung handelt oder nicht. Das System ist seit den 70er-Jahren auf Kriegsschiffen und am Boden zur Verteidigung von Militärbasen im Einsatz.

 

Fehlende Moral und Verantwortung
Wenn Roboter anstatt menschlicher Truppen in eine Schlacht geführt werden, könnte die Entscheidung, einen Krieg zu beginnen, künftig wesentlich leichter fallen, lautet einer der Kritikpunkte der Campaign to stop Killer Robots. Die Initiative fürchtet, dass Zivilisten bei Kampfhandlungen stärker in Mitleidenschaft gezogen werden als bisher. Eine Verschiebung moralischer Grenzen scheint unausweichlich.

Auch UN-Spezialberichterstatter Heyns meint: "Neben der physischen Entfernung vom Ort der Auseinandersetzung, wären Menschen auch losgelöster von der Entscheidung - und der Ausführung - zu töten." Die zahlreichen Zivilopfer bei Drohnenangriffen, etwa in Afghanistan, geben Heyns Recht. Killer-Maschinen wird im Gegensatz zu Drohnenpiloten erst recht nicht zugetraut, Situationen im jeweiligen Kontext bewerten und danach handeln zu können.

Wie alle Maschinen sind auch bewaffnete Roboter anfällig für Fehler. Im Einsatz und bei Übungen mit dem Phalanx CIWS ist es  etwa bereits zu fatalen Unfällen gekommen. Bei einem auf Wikipedia geschilderten Vorfall wurden Täuschkörper automatisch beschossen und einige der Projektile, die das Ziel nicht trafen, schlugen dafür in einem Schiff derselben Flotte ein. Bei einem anderen wurde eine Drohne als Testziel abgeschossen, Trümmer stürzten allerdings auf das Schiff und töteten eine Person.

Im Gegensatz zu Menschen können Maschinen nach Unfällen oder Fehlentscheidungen nicht zur Verantwortung gezogen werden. Wer muss Rechenschaft ablegen, wenn es zum Tod Unbeteiligter gekommen ist? Das Militär? Ein Waffenkonzern? Fragen wie diese beschäftigen nicht nur Menschrechtsaktivisten und die UNO.

 

Verlockung für das Militär
In einem Bericht für die US Navy wurde bereits im Jahr 2009 ein moralischer Codex für autonome Roboter verlangt. Das Verhindern von "Killer-Robotern" stand für die Forscher der California State Polytechnic University jedoch nicht zur Debatte, berichtet Engadget. Stattdessen wurde empfohlen, Robotern "Schlachtfeldethik" beizubringen.

Autonome, bewaffnete Roboter bieten für Militärstrategen einige Vorteile, meint Mark Bishop von der "Campaign to stop Killer Robots" gegenüber New Scientist. Während ferngesteuerte Drohnen mit Bodenstationen Kontakt halten müssen, und deshalb gehackt werden können, benötigen autonome Drohnen keine offenen Kommunikationskanäle und sind damit vor Cyberattacken geschützt.

Drohnen und andere Kampf-Roboter ohne Fernsteuerung sind außerdem im Betrieb günstiger. Waffenhersteller erwarten sich dadurch mehr Absatz. Wie die BBC berichtet, sehen Kampfroboter-Befürworter die Reduktion von Soldaten in Gefechten als deutlichen Vorteil. Der Krieg der Zukunft stellt sich mit Automatisierungs-Szenarien als eine Art Computerspiel dar - zumindest solange alle Kriegsgegner über Maschinen verfügen. Doch was passiert danach?

 

Ursache Mensch
"Wird der Besiegte getötet? Oder versklavt?", fragt sich der Robotik-Experte Markus Vincze von der Technischen Universität Wien. Im Telefoninterview befürwortet er den UNO-Vorschlag eines "Killer-Roboter"-Moratoriums, sieht das Grundproblem aber in der menschlichen Gesellschaft: "Ich würde nie für ein Projekt arbeiten, wo ich weiß, dass man damit Menschen gefährden kann. In vielen Ländern wird aber offenbar technisch daran gearbeitet. Ich bin mir bewusst, dass das möglich ist."

"Killer-Roboter" sind laut Vincze wie eine Waffe zu sehen. Er warnt jedoch davor, autonome Maschinen als grundsätzlich schlecht zu verteufeln. Ein gutes Beispiel dafür seien autonome Fahrzeuge: "Die fahren vielleicht einmal besser Auto als wir, sodass weniger Unfälle passieren."

Oberster Gesichtspunkt in der Roboter-Entwicklung sollte die Sicherheit sein, meint Vincze. Wie bereits der bekannte Science-Fiction-Autor Isaac Asimov in den 1940er-Jahren feststellte, sollte für Roboter die oberste Prämisse gelten, Menschen niemals zu verletzen oder zu gefährden. Roboter befänden sich in der aktuellen Diskussion allerdings in einer ähnlichen Lage wie Computer, fügt Vincze hinzu. "Die werden ja schließlich auch dazu genutzt, um Raketenwege zu berechnen und besser Krieg zu führen."

Mehr zum Thema

  • UN warnt vor Killer-Robotern
  • Vorbild Tierschutz: Brauchen Roboter Rechte?
  • Welser FH-Rettungsroboter gewinnt German Open

Hat dir der Artikel gefallen? Jetzt teilen!

David Kotrba

Ich beschäftige mich großteils mit den Themen Mobilität, Klimawandel, Energie, Raumfahrt und Astronomie. Hie und da geht es aber auch in eine ganz andere Richtung.

mehr lesen
David Kotrba

Kommentare