Tesla Autopilot ist “gelegentlich gefährlich unfähig”
Der Ruf von Teslas Selbstfahr-Software Autopilot ist seit jeher eher durchwachsen. Erst vor einigen Monaten machte etwa ein Video die Runde, bei dem die kostenpflichtige Funktion mit der Bezeichnung FSD (Full Self Driving) ungebremst in einen Zug rasen wollte. Der Vorfall ging immerhin glimpflich aus.
➤ Mehr lesen: Teslas Autopilot steuerte direkt in einen fahrenden Zug
Dass derartige Zwischenfälle immer wieder vorkommen, zeigt nun eine unabhängige Untersuchung des US-Unternehmens AMCI Testing. Insgesamt über 1000 Meilen (ca. 1.600 km) wurde mit dem Feature zurückgelegt, wie es heißt. Zwar sei der Autopilot zwar überraschend fähig, gleichzeitig aber problematisch. Und “gelegentlich gefährlich unfähig”.
Umfassender Test
AMCI führte dabei einen umfassenden Test unter verschiedensten Bedingungen durch. Zum Einsatz kam ein 2024 Model 3 Performance mit der aktuellsten Hardwareausstattung der 4. Generation.
Es wurde sowohl tagsüber als auch nachts gefahren, auf unterschiedlichen Straßentypen, von Stadt bis Autobahn oder schmalen Bergstraßen. Die Tests sowie das immer wieder nötige Eingreifen des Fahrers sind in mehreren Videos zu sehen.
➤ Mehr lesen: So gut ist ein gebrauchtes Tesla Model S um 10.400 Euro
Fehler “dramatisch und gefährlich”
Problematisch sei vor allem, wie selbstbewusst und scheinbar kompetent sich FSD verhält. Das würde den Fahrerinnen und Fahrern ein Gefühl vermitteln, als handle es sich um ein “denkendes System”.
Wenn Fehler passieren, seien sie hingegen “manchmal plötzlich, dramatisch und gefährlich”. Hat ein menschlicher Fahrer in solchen Situationen nicht seine Hände am Lenkrad, sei es unwahrscheinlich, dass er rechtzeitig eingreifen kann, um einen möglicherweise fatalen Unfall zu verhindern.