Digital Life 01.07.2016

Tesla-Unfall zeigt die Grenzen des Autopiloten auf

© Bild: REUTERS/STAFF

Der erste tödliche Unfall mit dem Autopilot des Tesla Model S zeigt, dass volle Autonomie noch nicht erreicht ist und der Fahrer immer noch die Verantwortung trägt.

Nach dem ersten tödlichen Unfall mit einem Tesla Model S in selbstfahrendem Modus gehen die Wogen hoch. Passiert ist das Unglück bereits vor einigen Tagen auf einer US-Autobahn. Ein Fahrer hatte dem Autopiloten des Elektroautos das Steuer überlassen, ein Lastwagen querte die Fahrbahn und der Tesla geriet unter dessen Anhänger. Am Donnerstag berichtete Tesla auf seiner Webseite von dem Vorfall.

Untersuchung

Die US-Verkehrssicherheitsbehörde NHTSA hat eine Untersuchung eingeleitet. Dabei soll der exakte Unfallhergang rekonstruiert werden. Unter anderem gilt es herauszufinden, wie die Sensoren des Tesla den kreuzenden Lastwagen übersehen konnten und warum der Fahrer selbst nicht mehr auf das Hindernis reagierte.

Begeisterung

Tesla führte den Autopilot-Modus für den Model S im Oktober 2015 ein. Die Begeisterung darüber war zunächst groß. Erstmals erhielt ein Auto durch eine Software-Aktualisierung quasi die Fähigkeiten eines autonomen Fahrzeugs. In Windeseile tauchten euphorische YouTube-Videos von Model-S-Besitzern auf, die zeigten, wie einfach man zum Passagier im eigenen Auto werden kann.

Wie Tesla nun betont, handelt es sich beim Autopilot um eine Funktion, die sich erst in der Testphase befindet. Model-S-Fahrer müssen dem ausdrücklich zustimmen, bevor sie die Funktion nutzen können. Während der Fahrt müssen ihre Hände auch auf dem Lenkrad verharren. Sensoren registrieren, ob dies der Fall ist. Dazu gibt es Bild- und Tonhinweise, die dem Fahrer vermitteln sollen, dass letztendlich er für das Schicksal des selbstfahrenden Tesla und seiner Insassen verantwortlich ist.

Geblendete Sensoren

"Der Vorfall zeigt die Komplexität der Einführung neuer Technologien", meint Roland Siegwart, Professor für autonome Systeme an der Schweizer Technik-Universität ETH Zürich. "Menschen glauben zu schnell daran, dass etwas zuverlässig funktioniert." Den Autopiloten des Tesla Model S sieht er eindeutig als Assistenzsystem, der das Fahrzeug aber noch lange nicht zum "selbstfahrenden, vollautonomen Auto" macht. Das System sei fähig, gewisse Aufgaben zu erledigen, könne aber noch nicht alle Situationen zuverlässig abdecken.

Was der Autopilot im aktuellen Fall nicht konnte, war laut Tesla, die weiße Seite des Lastwagen-Anhängers bei gleißendem Sonnenlicht zu erkennen. Markus Vincze vom Automation and Control Institute (ACIN) der Technischen Universität Wien, kommt dieses Problem bekannt vor. "Wir kennen das Phänomen von unseren Robotern. Kameras und sogar Lasersensoren können geblendet werden." Reflektionen von Fahrzeugen, sogar von Öl- oder Wasserflecken auf der Straße können den Bordcomputern ein falsches Umgebungsbild vermitteln.

Unfallgefahr bleibt

Im Normalfall sollten andere Sensoren die Beeinträchtigung der Kameras des Tesla Model S kompensieren, etwa Radarsensoren. "Die Tiefeneinschätzung durch Kameras ist mit hoher Wahrscheinlichkeit richtig, aber manchmal kann sie schiefgehen", meint auch Siegwart. Er hält den zusätzlichen Einsatz von Laserscannern für autonome Fahrzeuge, wie sie etwa die Versuchsfahrzeuge von Google aufweisen, für sinnvoll. Eine Kombination verschiedener Sensoren und eine Verbesserung der Algorithmen, um Verkehrssituationen zu interpretieren, sei maßgeblich für die Sicherheit autonomer Fahrzeuge.

Dennoch glauben beide Experten nicht an eine unfallfreie Zukunft selbstfahrender Autos. "Es gibt so viele Situationen, die man gar nicht alle testen kann", sagt Siegwart. Vincze erinnert an die Luftfahrt: "Dort ist jedes System dreifach ausgelegt und trotzdem passiert immer wieder etwas. Es ist wirklich schwierig, so etwas komplett zu vermeiden."

Weiterentwicklung

Beide hoffen, dass die Entwicklung autonomer Fahrzeuge fortgeführt wird, wenngleich nicht unbedingt mit der aktuellen Geschwindigkeit. "Es ist ein Rückschlag für eine ganze Technologiesparte, wenn man autonomes Fahren zu früh einführt", meint Siegwart. "Tödliche Unfälle hat es auch in der Robotik gegeben", sagt Vincze. "Das heißt nicht, dass wir jetzt alle durch Roboter sterben. Es liegt am Menschen, Maschinen so zu konstruieren, dass sie sicher sind."

( futurezone ) Erstellt am 01.07.2016