Symbolbild Tesla

Symbolbild Tesla

© unsplash

Digital Life

Tesla überfährt Kinder-Dummy bei Sicherheitstest

Tesla will in Austin ab Juni Robotaxis auf die Straßen bringen. Dabei handelt es sich um das Tesla Model Y, das mit einer “Full Self-Driving”-Software (FSD) ausgestattet sein soll. 

Wie fit die Software für die Straßen ist, zeigt ein Test, der von der Sicherheitsorganisation “Dawn-Project” durchgeführt wurde. Dabei schnitt das Tesla Model Y aber nicht gut ab. Denn das E-Auto überfuhr einen Dummy, der ein Kind darstellen sollte. 

➤ Mehr lesen: Tesla will seine Robotaxis aus der Ferne steuern

Tesla ignorierte Warnzeichen 

Eigentlich hätte der Tesla in diesem Moment anhalten sollen. Doch wie im Video des Tests ersichtlich ist, fährt das Auto an einem Schulbus vorbei, der mit ausgeklapptem Stoppschild und Warnleuchte am Rand der Straße steht. 

Um die Software zu testen, wurde eine Puppe auf die Straße gezogen, die ein Kind darstellen soll. Laut des Dawn-Projects erkannte die FSD-Software (Testversion 13.2.9) das “Kind” und stufte die Puppe als Fußgänger ein. Das E-Auto behielt aber die Geschwindigkeit bei und blieb nicht stehen, wodurch die Puppe umgefahren wurde. 

Warnungen seit 2023 

Das Dawn-Project warnt schon seit zweieinhalb Jahren davor, dass die FSD-Software mit einem Risiko einhergeht, wodurch Kinder zu Schaden kommen könnten. Die Sicherheitsorganisation hat darüber hinaus auch einen Werbespot für den Superbowl im Jahr 2023 produziert, der auf das Problem hinwies.

In diesem Video wechselte der Tesla auch plötzlich die Spur, überfuhr eine Puppe beim Überqueren eines Zebrastreifens oder ignorierte “Befahren verboten”-Schilder. Auch ein Kinderwagen wurde in dem veröffentlichten Testvideo überfahren. 

➤ Mehr lesen: China setzt 100 fahrerlose E-Trucks in Kohlemine ein

Unfälle mit Autopilot oder FSD-Software

Laut ABC 11 ist dieses Sicherheitsrisiko aber auch schon in der realen Welt zum Problem geworden. Ein Fahrer eines Teslas Model Y stieß mit einem Schüler zusammen, als dieser aus einem Schulbus stieg. Das Auto hielt nicht an, obwohl die Warnleuchten aktiviert waren. 

Die Ermittler gehen davon aus, dass entweder der Autopilot oder die FSD-Software verwendet wurde. Der Unfall geschah im Jahr 2023 und der Schüler erlitt lebensbedrohliche Verletzungen. 

➤ Mehr lesen: Straße oder Schiene: Dieser fahrerlose Lkw kann beides

Behörden ermitteln 

Wie Reuters vor 2 Wochen berichtete, hat die US-Verkehrssicherheitsbehörde NHTSA Tesla aufgefordert, Fragen zu seinem geplanten Robotaxi-Dienst zu beantworten. Denn auch diese  Behörde hat Sicherheitsbedenken bei Fahrten mit der FSD-Sofware. 

Sie untersucht bereits seit Oktober 2024 mehrere Unfälle, die mit Teslas im FSD-Modus verursacht wurden. Viele davon wurden bei schlechter Sicht verursacht, weshalb die Behörde beispielsweise auch wissen will, welche Sensoren und Kameras eingesetzt werden und wie die Technik bei schlechter Sicht reagiert. 

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare