Zur mobilen Ansicht wechseln »

Interview Autonome Waffensysteme werden schleichend eingeführt.

Unbemannte Drohnen gibt es bereits, der Kampfeinsatz wird aber immer noch von Menschen kontrolliert 
Unbemannte Drohnen gibt es bereits, der Kampfeinsatz wird aber immer noch von Menschen kontrolliert  - Foto: ap
Die UN diskutieren ein Verbot von Killer-Robotern. Wie notwendig und realistisch das ist, darüber gibt der Physiker Jürgen Altmann Auskunft.

Der Physiker Altmann ist renommierter Friedensforscher, Mitbegründer des International Committe for Robot Arms Control (ICRAC) und Privatdozent an der Technischen Universität Dortmund. Seit einigen Jahren befasst er sich mit Kontrollmöglichkeiten automatischer und autonomer Waffensysteme. Die futurezone hat sich mit ihm darüber unterhalten, warum autonome Waffen-System verboten werden sollen und wie dringend nötig das ist.

Jürgen Altmann
Jürgen Altmann - Foto: Jürgen Altmann
futurezone: Gibt es Killer-Roboter jetzt schon, oder ist das noch Science-Fiction? Wann werden sie kommen?
Jürgen Altmann: Waffensysteme, die sich selbständig in einer Region bewegen, nach Zielen suchen und nach einem bestimmten Verfahren die Situation beurteilen und autonom identifizierte Ziele bekämpfen, die gibt es noch nicht. Es gibt ein paar Vorformen, etwa zielsuchende Submunition, die auf Panzer reagiert. So etwas würde man automatisch nennen, ohne den Anspruch, autonom Entscheidungen zu treffen. In einem sehr primitiven Sinne könnte man auch Minen als automatische Systeme bezeichnen. Derartige Waffen reagieren auf einen simplen Reiz, nämlich auf die Infrarotstrahlung eines Triebwerks oder das Gewicht einer Person. Anti-Personen-Minen wurden dann auch 1997 von der internationalen Gemeinschaft verboten. Es gibt auch Flugabwehr- und Schiffsverteidigungssysteme, die automatisch schießen können.

Wie sieht es aus mit intelligenten Minen? 
Es gab Versuche, so genannte intelligente Minen zu entwickeln. In der Diskussion des Verbots wurden diese von den befürwortenden Staaten als Kompromisslösung vorgebracht, um ein Verbot zu verhindern. Aber man entschied sich für ein komplettes Verbot

Muss die Entwicklung von autonomen Waffen-Systemen jetzt vorbeugend verboten werden? Wie dringend ist das?
Die Entwicklung geht in den hoch-industrialisierten Staaten in die Richtung autonome Waffensysteme, insbesondere in den USA. Man muss befürchten, dass sie schleichend eingeführt werden und zunächst vielleicht für einfache Situationen verwendet werden. Wenn man sich daran gewöhnt hätte, könnten sie für autonomes Kämpfen auch in komplexeren Situationen programmiert werden. Dieser Entwicklung muss man Einhalt gebieten. Deshalb haben sich die Staaten im Mai in Genf getroffen.

Ist ein Verbot überhaupt durchsetzbar und kontrollierbar?
Durchsetzung ist immer schwierig – im gegenwärtigen internationalen System gibt es – anders als im Inneren von Staaten – keine übergeordnete Autorität, die Regeln festsetzen und ihre Einhaltung durchsetzen kann. Wenn die Staaten einem Vertrag freiwillig beitreten, könnten sie diesen theoretisch brechen oder auch kündigen. Es gibt keine Sanktionsmöglichkeiten und keine juristische Verfolgung. Im Kriegsvölkerrecht gibt es diese erst in embryonalen Ansätzen.

Bei einem Verbot autonomer Angriffe, während ferngesteuerte unbemannte Kampfsysteme erlaubt blieben, wäre Überprüfung der Einhaltung im Vorfeld praktisch ausgeschlossen. Man könnte aber sehr wohl im Nachhinein untersuchen, ob ein Angriffsakt durch Menschen ferngesteuert wurde. Das Abkommen könnte regeln, dass alle Sensor- und Kommunikationsdaten und das, was in der Bodenstation passiert, fälschungssicher aufgezeichnet werden. Im Falle einer Untersuchung könnte man diese Daten ansehen und es ließe sich nachprüfen, ob ein Mensch die Entscheidung zum Angriff getroffen hat.

Welche der schon existierenden automatischen Waffensysteme sind problematisch?
Beispielsweise Systeme, die in einer Gegend eine halbe Stunde oder länger herumfliegen und Radarsysteme suchen und sie bekämpfen, wenn sie als feindlich erkannt werden. Das sind Vorformen, die auf ein einfaches Signal hin reagieren. Israel beispielsweise hat die Drohne Harop entwickelt, die USA das Drohnensystem LOCAAS gegen alle möglichen Zielkategorien, das aber nicht eingeführt wurde. Sicherer wäre es, keine Systeme zu haben, die selbst Ziele suchen können, sondern nur solche, bei denen ein verantwortlicher Soldat ein feindliches System identifiziert und gezielt bekämpft. Das Suchen darf nicht der Maschine überlassen werden. Möglicherweise würden bei einem UN-Verbot Such-Systeme mit sehr engen Zielkriterien ausgenommen werden. Aber für die internationale Stabilität wäre es besser, wenn sie abgeschafft werden würden.

Israel bezeichnete vor zwei Wochen in Genf autonome Waffensysteme ja grundsätzlich als „wünschenswert“. Warum? 
Ich denke, es geht Israel darum, sich perspektivisch alle Möglichkeiten offen zu halten, seine unbemannten Kampfsysteme von ferngesteuerten auf autonome Angriffe umzustellen.

Verteidiger behaupten, dass der Einsatz von autonomen Maschinen verantwortungsvoll sei, weil diese nicht emotional handeln und damit in Kampfhandlungen weniger Fehler machen. Stimmt das?
Die Dinger wären programmiert, und man müsste Ärger und Rachegefühle nicht in ein solches Programm einfügen. Das stimmt als theoretische Möglichkeit. Aber das ist eine relativ fiktive Begründung für eine spekulative Zukunft. Durch die Einführung solcher Systeme ist jedoch schon jetzt abzusehen, dass das Kriegsvölkerrecht – durch Angriffe gegen nicht legitime Ziele – verletzt und die internationale Lage destabilisiert würde. Man sollte das Argument, eine mögliche künftige Verhaltensverbesserung in kleinen Teilbereichen zu erreichen, gegen die großen Gefahren abwägen, die durch diese Systeme entstehen würden.

Es wird auch von Befürwortern behauptet, dass Kollateralschäden besser vermieden werden könnten. Wie sehen Sie das?
Es gibt wenig Grund anzunehmen, dass das in der übersehbaren Zukunft der Fall sein wird. Vor allem wenn diese Geräte wegen des militärischen Drucks – schnelle Reaktion, Unterbrechung der Kommunikation u.a. – zügig eingeführt werden würden. Zunächst müssten autonome Waffensysteme ja eine Überlegung über die Angemessenheit eines Angriffs durchführen, insbesondere die Verhältnismäßigkeit zu erwartender Kollateralschäden beurteilen. Sie müssten wie ein menschlicher Kommandeur ein Verständnis der aktuellen Situation entwickeln und wissen, wie Verhaltensweisen zu deuten sind, z.B. ob eine bewaffnete Person ein Kombattant ist oder nicht oder ob ein Kombattant sich gerade ergeben will oder verwundet ist. Das wird eine künstliche Intelligenz auf Jahrzehnte nicht leisten können.

Wer ist verantwortlich, wenn eine Maschine einen Unschuldigen tötet?
Darüber gibt es eine internationale Diskussion. Ein Argument ist, dass man niemanden so richtig verantwortlich machen kann, weder den Programmierer noch den Hersteller, den Kommandeur oder die Maschine selbst. Die Maschine hat ja auch kein Gefühl dafür, was eine Strafe ist. Aber ich denke, dass derjenige, der eine solche Maschine losschickt im Wissen, dass er nicht wissen kann, was diese anrichten wird, weil sie autonom handelt, für alle damit angerichteten Schäden verantwortlich ist.

Wie sieht das dann aus mit Schadensersatz und Bestrafung?
Mit Schadenersatz im Krieg ist das schwierig – prinzipiell ist der angreifende Staat zuständig, aber Durchsetzung ist äußerst schwer. Was das Strafrecht angeht, sollte derjenige, der die Maschine ins Feld geschickt hat, zur Verantwortung gezogen werden. Es wäre ein Verbrechen, eine Kampfmaschine losgeschickt zu haben, ohne sicher sein zu können, dass diese sich nur gegen legitime Ziele richtet.

Könnten autonome Systeme garantiert so programmiert werden, dass sie sich rechtskonform verhalten?
Nein, garantiert nicht. Man würde verlangen, dass sie das mindestens genauso gut machen wie ein menschlicher Entscheider. Man weiß ja, wie schwierig es ist, mit künstlicher Intelligenz Sprache zu verstehen, Gesichter zu erkennen, Gesten in einem sozialen Kontext zu deuten und Schlussfolgerungen zu ziehen. Das wird in den nächsten Jahrzehnten nicht gehen.

Üben wir denn heute überhaupt noch eine angemessene Kontrolle aus, wenn Signatur-Tötungen durch amerikanische Drohnen in Pakistan und Jemen längst Realität sind?
Es sind immer noch Menschen, die diese Verhaltenssignatur betrachten und dann entscheiden. Aber es ist eine sehr gefährliche und verwerfliche Entwicklung. Man rechtfertigt damit das Töten aufgrund eines bestimmten, aus der Ferne beobachteten Verhaltens – und ähnliche Schlussfolgerungen, nur noch unzuverlässiger, könnten in ein autonomes Kampfsystem programmiert werden. Völkerrechtler diskutieren diese Herangehensweise derzeit intensiv kritisch. Auch in den USA gibt es Juristen, die dieses Vorgehen ablehnen.

Das US-Verteidigungsministerium hat kürzlich ein Teil-Moratorium für Kampfroboter verkündet. Sie sollen in den nächsten fünf Jahren nur für Erkundungen genutzt werden, wobei die Vereinbarung noch einmal für fünf Jahre verlängert werden kann. Ist das beruhigend?
Nein, wenn man die Direktive genau liest, kann man feststellen, das es allerlei Hintertüren gibt, den Einsatz nicht-tödlicher Waffen etwa. Mit einigen Unterschriften im Verteidigungsministerium können die Regelungen durchbrochen werden. Letztlich zeigt das, dass die USA in die Richtung autonome Systeme gehen wollen. Forschung und Entwicklung werden intensiv weiter geführt. Aber auch in zehn Jahren sind noch keine annähernd verlässlichen Systeme zu erwarten.

Deutschland, Frankreich, Großbritannien und die Niederlande möchten, dass die menschliche Kontrolle über Zielsuche und die Entscheidung des Angriffs nicht aufgegeben werden darf. Kann so ein Verbot erreicht werden?
Ja, ein solcher Ansatz könnte eine Möglichkeit sein, ein Verbot autonomer Angriffe umzusetzen. Wie man das genau definieren soll, das wurde in Genf auch angesprochen und die Diskussion wird im November weitergeführt. Im nächsten Jahr gibt es dann hoffentlich eine ausführlichere Expertenberatung über diese Fragen. Am Ende wäre ein Verbotsprotokoll möglich. Ob das autonomes Angreifen verbietet oder eine bedeutsame menschliche Steuerung bei Angriffen fordert, das ist offen.

Bislang sprechen sich nur fünf Staaten eindeutig für ein Verbot aus. Warum ist das so?
Die Staaten sind am Anfang eines Diskussionsprozesses. Manche wollen sich erstmal kundig machen, andere wollen in Verhandlungen ein wenig ausloten, wie es gehen könnte. Dieser Meinungsprozess entwickelt sich. Dabei ist eine engagierte Öffentlichkeit wichtig – ganz ähnlich wie bei den Diskussionen, die letztlich zum Verbot der Anti-Personen-Mine geführt haben.

(futurezone) Erstellt am 12.06.2014, 06:00

Kommentare ()

Einen neuen Kommentar hinzufügen

( Abmelden )

Dein Kommentar

Antworten folgen
Melden Sie den Kommentar dem Seitenbetreiber. Sind Sie sicher, dass Sie diesen Kommentar als unangemessen melden möchten?
    Bitte Javascript aktivieren!