Science
18.07.2018

Elon Musk und DeepMind versprechen, keine Killerroboter zu bauen

Chefs von Technologiefirmen und Forscher wollen mit einem Abkommen ein Zeichen gegen Waffen mit künstlicher Intelligenz setzen.

Elon Musk hat sich schon mehrmals gegen künstliche Intelligenz ausgesprochen und deren Gefahren betont. Bei ihm klingt es zwar ein bisschen wie die Angst vor der Roboter-Apokalypse, seine Bedenken werden aber auch von anderen Größen der IT-Branche und renommierten Forschern auf dem Gebiet KI geteilt.

Diese wollen jetzt ein Zeichen setzen. Sie haben ein Abkommen unterschrieben, in dem sie versprechen, keine künstliche Intelligenz für tödliche Waffensysteme zu entwickeln. Laut dem Abkommen gebe es moralische und pragmatische Probleme, wenn eine KI, ohne menschliches Zutun, Ziele auswählt und angreift. Moralisch, weil die Entscheidung ein Menschenleben zu nehmen, nie auf eine Maschine abgewälzt werden sollte. Pragmatisch, weil die Verbreitung solcher Waffensysteme Länder und Individuen destabilisieren würde.

Prominente Unterzeichner

Zu den Personen, die das Abkommen unterschrieben haben, gehören Tesla-Chef Elon Musk, die Co-Gründer von Googles DeepMind Shane Legg, Mustafa Suleyman und Demis Hassabis, Skype-Gründer Jaan Tallinn und renommierte KI-Forscher wie Stuart Russell, Yoshua Bengio und Jürgen Schmidhuber.

Unter den KI-Kritikern wird das als ein Schritt in die richtige Richtung gelobt. Zuvor gab es nur Briefe, etwa an die USA und die Vereinten Nationen, in denen gebeten wurde strenge Regeln und Richtlinien für KI-gesteuerte Waffensysteme einzuführen oder diese gänzlich zu verbieten. Mit diesem Abkommen würde es jetzt erstmals eine echte Aktion geben, anstatt nur über das Problem zu reden.

Kaum Wirkung

Realistisch gesehen ist dieses Abkommen aber nahezu wirkungslos. Es gibt genug Unternehmen, die liebend gerne Rüstungsaufträge annehmen. Und auch wenn Google keine Killer-KI entwickeln will, gibt es in Israel genügend Start-ups, die in diesem Bereich weit vorangeschritten sind und kein Problem damit haben, die israelische oder US-Armee damit zu versorgen.

Außerdem ist in dem Abkommen lediglich von tödlichen Waffen die Rede, die ohne das Zutun eines Menschen zielen und feuern. Eine KI für einen Roboter-Panzer, der selbstständig fährt und den Feind anvisiert wäre also ok, solange ein Soldat, der tausende Kilometer entfernt in einem klimatisierten Büro vor einem Monitor sitzt und auf das abstrakte Schwarz-Weiß-Bild der Infrarot-Kamera starrt, den Knopf zum Feuern drückt.