Science
12.04.2018

US-Drohnen entscheiden bald selbst, wen sie töten

Die US-Armee hat angekündigt, dass sie erstmals Drohnen entwickelt, die selbstständig Personen erkennen und ins Visier nehmen.

Die Drohnen, die das US-Militär und andere Streitkräfte heute einsetzen, werden von Soldaten via Satellitenverbindung ferngesteuert. Die Entscheidung, wer oder was angegriffen wird, obliegt dem menschlichen Bediener. Das will die US-Armee jetzt ändern, wie theconversation berichtet. In einer Ankündigung wird ein Forschungsprojekt beschrieben, dessen Ziel die Entwicklung einer künstlichen Intelligenz ist, die Drohnen steuern und selbstständig Ziele anvisieren kann. Mit einem solchen System würde die Maschine entscheiden, wer lebt und wer stirbt.

Eine solche Automatisierung der Tötungsmaschinerie von Streitkräften birgt viele Risiken. Die US-Armee hat Interesse daran, die menschlichen Bediener loszuwerden, weil sie trotz der Distanz zum Schlachtfeld oft Traumata davontragen. Wenn aber Algorithmen die Drecksarbeit übernehmen, droht die Kriegsführung zu einer reinen Vernichtungsorgie zu werden, wie theconversation mahnt. Menschliche Teilhabe kann laut dieser Argumentation zumindest in bestimmten Bereichen ein Mindestmaß an Humanismus garantieren.

Auch US-Techkonzerne könnten durch autonome Tötungsmaschinen Probleme bekommen. Sind es doch ihre Algorithmen, die für selbsttötende Flugobjekte zweckentfremdet werden. Das würde diese Firmen, deren Technologie zivil und militärisch genutzt würde, und ihre Mitarbeiter und Einrichtungen laut internationalem Recht im Konfliktfall zu legitimen Zielen für Feinde machen. Ethisch ist die Situation noch viel komplizierter: Wer übernimmt die Verantwortung für Kollateralschäden? Wie viele Fehler, vielleicht mit tödlichen Folgen, darf ein solches System in seiner Lernphase machen? und Was passiert, wenn Fehler auftreten? Bislang handelt es sich lediglich um ein Forschungsprojekt, aber der erste Schritt ist getan.