© Screenshot/YouTube/AI Addict

Produkte

Selbstfahrender Tesla: "Lächerlich schlecht und gefährlich"

Tesla hat eine Beta-Version der „Full Self Driving“-Software an einige Tesla-Fahrer ausgeliefert. Der Name suggeriert, dass der Tesla-Autopilot das Fahrzeug damit „komplett selbstständig fahren“ kann.

Der YouTube-Nutzer AI Addict hat eine Fahrt damit in einem Tesla Model 3 veröffentlicht. Das Fazit daraus: Full Self Driving ist nicht nur „lächerlich schlecht“, sondern auch „potenziell gefährlich“.

Peinlich bis gefährlich

Das Video entstand in Oakland, eine Stadt in Kalifornien mit über 420.000 Einwohnern. Die FSD Beta 8.2 wirkt in dem 13-minütigen Video verwirrt und überfordert. Während Fahrer und Beifahrer die Manöver anfangs noch als „peinliche Fehler“ kommentieren, wird es später zu „extrem riskantem, potenziell gefährlichem Fahren“.

So wurden durch den Autopiloten einige Verkehrsvorschriften gebrochen. Es wurde etwa eine Sperrlinie überfahren. Dann will der Autopilot links neben einem anderen Auto abbiegen, entschließt sich aber mitten in der Kreuzung doch geradeaus weiter zu fahren.

Danach wird eine Kurve zu weit genommen, weshalb das Model 3 auf der Gegenfahrbahn landet. Ähnliches passiert später nochmal: Auf einer geraden Straße kommt der Autopilot auf die Gegenfahrbahn. Beim Abbiegen nach links nach einem Stoppschild bremst der Autopilot unnötig und rollt langsam durch die Kurve, weshalb andere Fahrzeuge bremsen müssen, um einen Unfall zu vermeiden.

Beinahe-Unfälle

Danach wird es eher schlimmer, als besser. Der Autopilot bleibt mitten auf der Straße stehen, fährt gerade aus auf einer reinen Abbiegespur, bleibt hinter einem geparkten Auto stehen und rammt fast eine Begrenzung beim Abbiegen. Dann hält der Autopilot den Verkehr auf, weil er langsam um ein stehendes Auto herumfährt und fährt dann wieder mal auf die Gegenfahrbahn.

Danach kommt es abermals zu einer Beinahe-Kollision. Der Autopilot fährt in eine Kreuzung und missachtet dabei ein Stoppschild. Ein Auto des Seitenverkehrs verpasst knapp die Stoßstange des Model 3. Das dahinter kommende Fahrzeug muss abbremsen, um einen Aufprall zu verhindern. Hier ist dazuzusagen, dass der Fahrer auch bei der Full Self Driving Beta des Autopiloten immer bereit sein muss, einzugreifen. Und hier hätte er unbedingt eingreifen müssen, anstatt abzuwarten was passiert, wenn der Autopilot das Stoppschild ignoriert.

Danach rammt das Model 3 beinahe ein Auto. Es hat den Wagen die Vorfahrt genommen, um einer Straßenbeschädigung auszuweichen. Danach fährt der Autopilot beinahe einen Zaun um. In beiden Fällen ist der Fahrer eingeschritten, um Unfälle zu verhindern.

Moralisch fragwürdig

Videos wie diese, die die Probleme mit der Software zeigen, werfen moralische Fragen auf. Tesla verlangt 10.000 US-Dollar für das Full Self Driving-Upgrade des Autopiloten. Der hohe Preis und der Name würde Usern suggerieren, dass die Software zumindest sicher sei – auch wenn es eine Beta-Version ist.

Das führt dazu, dass Tesla-Besitzer diese Beta-Software im normalen Straßenverkehr ausprobieren. So gefährden sie nicht nur ihr eigenes Leben, sondern auch das der anderen Verkehrsteilnehmer.

Tesla wird deshalb vorgeworfen, bewusst dieses Risiko einzugehen, um kostenlos wertvolle Daten zur Software im Alltagsgebrauch zu sammeln, anstatt selbst großflächige Tests machen zu müssen. Und wenn wirklich mal etwas passiert, könne sich Tesla immer ausreden. Schließlich werden die Fahrer ja hingewiesen, auch bei der Full Self Driving Beta immer bereit sein zu müssen, einzugreifen.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare