© FF-trausdorf

Science
06/25/2016

Wie entscheiden selbstfahrende Autos, wen sie töten?

Dass Autos selbstständig lenken und Entscheidungen treffen, ist nur mehr eine Frage der Zeit. Das bringt jedoch eine Reihe moralischer Implikationen mit sich.

Während alle Autohersteller plus Tech-Konzerne wie Google und wohl auch Apple an der technischen Umsetzung autonomer Fahrzeuge arbeiten, müssen auch unangenehme moralische Fragen beantwortet werden. Wie soll sich ein Auto bei einem unvermeidbaren Unfall verhalten? So agieren, dass andere Verkehrsteilnehmer oder etwa auch Fußgänger nicht zu schaden kommen, aber die Insaßen im Auto verletzt oder gar getötet werden? Oder umgekehrt?

Zum Schutz vieler einzelne töten?

Wie entscheidet das Auto das? Wie wird es diesbezüglich programmiert? Eine in Science veröffentlichte Studie "The Social Dilemma of Autonomous Vehicle" versucht Antworten auf diese Frage zu finden. "Die Menschen wollen eine fahrerlose Autozukunft, in der tödliche Verkehrsunfälle minimiert werden, gleichzeitig wollen sie aber auch, dass ihr eigenes Auto sie selbst so gut wie nur irgendwie möglich beschützt", fasst Studienautor Iyad Rahwan vom MIT die Ergebnisse der Befragung zusammen.

Die Befragten hätten dezidiert angegeben, dass ein selbstfahrendes Auto keinesfalls in eine Fußgänger-Gruppe hineinfahren soll - auch wenn dafür das Auto sich selber zerstören und damit die Insaßen gefährden muss. Offenbar galt diese moralisch edle Antwort nur, wenn es nicht um das eigene Auto in der Fragestellung ging. Wurden die Studienteilnehmer danach befragt, war die Antwort überwiegend, dass das Auto die Insaßen um jeden Preis beschützen müsse.