© apa/iRobot/HO

Science
05/23/2014

UN diskutieren Stopp von Killer-Robotern

Muss die Entwicklung von Killer-Robotern gestoppt werden? Etliche Unternehmen arbeiten bereits an autonomen Waffen, die selbst ohne menschliches Eingreifen Ziele aussuchen und angreifen können.

Vergangene Woche fand zu dem Thema erstmals ein internationales Expertentreffen bei den Vereinten Nationen in Genf statt. Bereits entwickelte Waffensysteme zeigen heute schon verschiedene Autonomie- und Tödlichkeitsgrade. Der Trend hin zu mehr Autonomie ist klar erkennbar und viele Experten glauben, dass sich dadurch die Kriegsführung im 21. Jahrhundert komplett verändern wird. In einem Betrag in der renommierten Zeitschrift „Foreign Affairs“ wurden kürzlich aktuelle Vorläufer von Killer-Robotern vorgestellt.

Südkorea verwendet bereits Überwachungsroboter der Firma Samsung Techwin, um in der demilitarisierten Zone, zwischen Südkorea und Nordkorea Ziele durch Infrarot-Sensoren auszumachen. Die Roboter verfügen über ein automatisches Feature, um Körperwärme zu entdecken sowie über ein Maschinengewehr, das sie ohne das Zutun der menschlichen Betreiber abfeuern können. Die US-Firma Northrop Grumman hat eine autonome Drohne namens X-47B (X-47B) entwickelt, die vorprogrammierten Flugpfaden folgen kann, ohne zusätzlich überwacht zu werden. Und Israel entwickelt derzeit eine bewaffnete Drohne namens Harop, die selbst Ziele aussuchen kann.

Offene Fragen

Viele Fragen sind nach Ansicht von Verbots-Befürwortern ungeklärt: Können autonome Systeme garantiert so programmiert werden, dass sie sich rechtskonform verhalten? Wer ist verantwortlich, wenn eine Maschine einen Unschuldigen tötet? Wer zahlt die Entschädigungen? Robotik-Forscher wie Ronald Arkin vom Georgia Institute of Technology hingegen glauben optimistisch, dass Killer-Roboter Kollateralschäden vermeiden helfen und sich im Gefecht sogar ethischer verhalten können als menschliche Soldaten. Und Verteidungsexperte Joshua Frost sagt, dass die Rotober lediglich ein weiteres Kriegswerkzeug darstellen, die möglicherweise weniger Fehler machen als Menschen.

87 Länder nahmen nun vergangene Woche an einem viertägigen Expertentreffen über „tödliche autonome Waffensysteme“ statt, das von der UN-Waffenkonvention in Genf organisiert wurde. Auf einem nächsten Treffen im November soll entschieden werden, ob der jetzt begonnene Diskussionsprozess auf einer formaleren Ebene fortgesetzt wird.

Diskutiert wurde, ob bestehende internationale Regelungen die Probleme, die durch vollständig autonome Waffensysteme entstehen, abdecken können. So könnten die Tötungsmaschinen das fundamentale Prinzip der menschlichen Würde untergraben, da sie menschliches Leben beenden können, ohne es zu respektieren. Auch wurden verschiedene rechtliche Möglichkeiten diskutiert: So könnte es ein Verbot autonomer Waffen, ein Moratorium oder Beschränkungen geben, die bestehendes Recht ergänzen.

Verbot?

Erst fünf Länder verlangen bislang ein Verbot von autonomen Tötungsmaschinen, nämlich Kuba, Ecuador, Ägypten, Pakistan und der Vatikan. Vergangene Woche verlangten auch mehrere Nobelpreisträger ein Verbot, darunter der südafrikanische Erzbischof Desmond Tutu und der frühere südafrikanische Präsident de Klerk. In einem Schreiben warnten sie davor, dass „die Entscheidung, einen Krieg zu beginnen, einfacher wird, wenn man das Töten Maschinen überlässt und dass damit die Last eines bewaffneten Konflikts auf die Zivilisten geschoben wird“.

Die „Kampagne zum Stopp von Killer Robotern“ betont, dass ein neues internationales Recht angesichts des technologischen Fortschritts notwendig sei. Auch die Menschenrechtsorganisation „Human Rights Watch“ spricht sich in einem Bericht für ein internationales Verbot aus. Ihr Experte Steve Goose sagt: „Regierungen müssen sich gegen vollautonome Waffen jeglichen Zwecks entscheiden und diese jetzt vorsorglich verbieten, bevor es zu spät ist.“

Ein Verbot ist derzeit aber nicht in Sicht. Länder wie Deutschland, Frankreich, Großbritannien und die Niederlande betonen lediglich, dass eine menschliche Kontrolle über die Zielsuche und die Entscheidung des Angriffs nicht aufgegeben werden dürfe. Die USA sagten, es sollte eine „angemessene“ menschliche Beteiligung über die Autonomie der Waffensysteme verbleiben. Kein Land sprach sich für die Systeme aus, allein Tschechien und Israel bezeichneten sie als „wünschenswert“.