Hat der Tesla-Ansatz „Full Self Driving“ ein „Wippenproblem“?

Tesla-Fans sind sich Teslas Herangehensweise an das „vollkommene Selbstfahren“ inzwischen wohl bewusst, aber ich werde hier eine superschnelle Zusammenfassung geben, nur um sicherzustellen, dass alle Leser auf derselben Seite sind. Grundsätzlich haben Tesla-Fahrer in Nordamerika, die das „Full Self Driving“-Paket gekauft und einen Safety Score-Test bestanden haben, im Moment eine Beta-Version von Tesla Autopilot/Full Self Driving von Tür zu Tür in ihren Autos aktiviert. Wenn ich beim Verlassen der Einfahrt ein Ziel in die Navigation meines Tesla Model 3 eingebe, fährt mein Auto von alleine dorthin – theoretisch. Es ist nicht annähernd perfekt, und die Fahrer müssen das Auto während der Fahrt wachsam überwachen, um bei Bedarf einzugreifen, aber es hat jetzt eine breite Fähigkeit, „überall“ zu fahren. Wenn wir mit aktiviertem Full Self Driving (FSD) herumfahren und ein Problem vorliegt (entweder ein Ausrücken oder wenn der Fahrer auf ein kleines Videosymbol tippt, um einen Videoclip der letzten Fahrt an die Tesla-Zentrale zu senden), sehen sich Mitglieder des Tesla-Autopilot-Teams um am Klipp. Bei Bedarf fahren sie das Szenario in einem Simulationsprogramm erneut und reagieren auf das Problem auf die richtige Weise, um der Tesla-Software beizubringen, wie sie mit dieser Situation umgehen soll.

Tesla FSD in Aktion. © Zachary Shahan/CleanTechnica

Ich habe vor einigen Monaten (Anfang Oktober 2021) Zugang zu FSD Beta erhalten. Als ich es bekam, war ich ziemlich überrascht, wie schlimm es in meiner Gegend war. Ich war überrascht, da ich 1) viel Hype darüber gesehen hatte, wie gut es war (einschließlich von Elon Musk und anderen Leuten, denen ich im Allgemeinen vertraue, wenn es um Tesla-Angelegenheiten geht) und 2) ich in einer wirklich einfachen Gegend zum Fahren lebe (a Vorort von Florida). Als ich anfing, FSD Beta zu verwenden, hatte ich einfach nicht erwartet, dass es erhebliche Probleme mit grundlegenden Fahraufgaben in einer Fahrumgebung hatte, die so einfach ist, wie es nur geht. Nichtsdestotrotz behielt ich die Hoffnung, dass es aus seinen Fehlern und aus dem Feedback, das ich an die Tesla-Zentrale schickte, lernen würde. Sicherlich könnte es nicht schwer sein, einige eklatante Probleme zu beheben, und jedes Update würde besser und besser werden.

Ich habe seitdem einige Verbesserungen gesehen. Allerdings haben Updates auch neue Probleme mit sich gebracht! Damit hatte ich nicht gerechnet, zumindest nicht in dem Ausmaß, in dem ich es gesehen habe. Ich habe darüber eine Weile nachgedacht. Im Grunde habe ich versucht zu verstehen, warum Tesla FSD nicht so gut ist, wie ich es mir erhofft hatte, und warum es manchmal deutlich schlechter wird. Ein mögliches Problem ist das, was ich das „Wippenproblem“ nenne. Wenn meine Theorie in nennenswertem Maße richtig ist, könnte dies ein kritischer Fehler in Teslas Ansatz zum weit verbreiteten, verallgemeinerten Selbstfahren sein.

Meine Sorge ist, dass, wenn Tesla markierte Probleme korrigiert und neue Software auf Tesla-Kundenautos hochlädt, diese Korrekturen an anderer Stelle Probleme verursachen. Mit anderen Worten, sie spielen nur Software-Wippe. Ich sage nicht, dass dies definitiv passiert, aber wenn ja, dann ist Teslas KI-Ansatz ohne wesentliche Änderungen möglicherweise nicht für diesen Zweck geeignet.

Da ich monatelang gefahren bin und darüber nachgedacht habe, was das Auto sieht und wie die FSD-Software reagiert, weiß ich zu schätzen, dass es so etwas gibt viel mehr Nuance beim Fahren, als wir normalerweise erkennen. Es gibt alle möglichen kleinen Hinweise, Unterschiede in der Fahrbahn, Unterschiede im Verkehrsfluss und in der Sichtbarkeit, tierische Aktivitäten und menschliches Verhalten, die wir bemerken und dann entweder ignorieren oder darauf reagieren – und manchmal beobachten wir es eine Weile genau zwischen diesen beiden Optionen entscheiden, weil wir wissen, dass kleine Unterschiede in der Situation unsere Reaktion ändern können. Die Dinge, die uns dazu bringen, zu reagieren oder nicht, sind weitreichend und können wirklich schwer in Schubladen zu stecken sein. Oder anders ausgedrückt: Wenn Sie etwas in eine Box stecken („handeln Sie so hier“), basierend darauf, wie eine Person in einem Laufwerk reagieren sollte, ist es unvermeidlich, dass die dafür verwendete Regel in einem ähnlichen aber nicht korrekt gilt anderes Szenario und führt dazu, dass das Auto das tut, was es nicht tun sollte (z. B. reagieren statt ignorieren).

Lassen Sie mich versuchen, dies konkreter und klarer auszudrücken. Die häufigste Route, die ich fahre, ist eine 10-minütige Route von meinem Zuhause zur Schule meiner Kinder. Es ist eine einfache Fahrt auf meist Wohnstraßen mit breiten Fahrspuren und mäßigem Verkehr. Damals, bevor ich FSD Beta hatte, konnte ich den Tesla Autopilot (adaptive Geschwindigkeitsregelung, Spurhalten und automatische Spurwechsel) auf den meisten dieser Strecken verwenden, und es würde seine Arbeit einwandfrei erledigen. Der einzige Grund, es auf fast der gesamten Fahrt nicht zu verwenden, war das Problem von Schlaglöchern und einigen besonders holprigen Abschnitten, in denen Sie in der Spur unzentriert fahren müssen, um nicht allen die Zähne zu klappern (nur eine leichte Übertreibung). Abgesehen von diesen Komfort- und Reifenschutzproblemen war der einzige Grund, warum es nicht die ganze Strecke fahren konnte, dass es keine Kurven fahren konnte. Als ich den Safety Score-Test bestand und FSD Beta erhielt, bedeutete das auch, dass ich auf die Verwendung von Radar verzichten und mich auf „nur Sicht“ verlassen musste. Die neue und „verbesserte“ FSD-Software könnte hypothetisch die gleiche Aufgabe erledigen, könnte aber diese Wendungen machen. FSD Beta, das nur Sicht (kein Radar) verwendete, hatte jedoch Probleme – hauptsächlich viele Phantombremsungen. Als eine neue Version von FSD Beta herauskam und einige Tesla-Enthusiasten davon schwärmten, wie viel besser es war, würde ich eifrig upgraden und es ausprobieren. Manchmal besserte es sich etwas. Andere Male wurde es viel schlimmer. Kürzlich verwickelte es sich in ein verrücktes Phantomausweichen und mehr Phantombremsen und reagierte scheinbar auf andere Hinweise als bei früheren Fahrten. Dies ist die Art von Dingen, die mir die Vermutung gaben, dass Korrekturen für Probleme, die an anderer Stelle von anderen Tesla FSD Beta-Benutzern identifiziert wurden, zu Überreaktionen in einigen meiner Fahrszenarien geführt hatten.

Tesla FSD auf einer Wohnstraße. © Zachary Shahan/CleanTechnica

Kurz gesagt, meine Vermutung ist, dass ein zu verallgemeinertes System – zumindest eines, das nur auf Vision basiert – nicht angemessen auf die vielen verschiedenen Szenarien reagieren kann, denen Fahrer jeden Tag begegnen. Und die Lösung für jeden kleinen Auslöser oder falschen Auslöser auf genau die richtige Weise erfordert viel zu viele Nuancen. Der Software beizubringen, für „ABCDEFGY“, aber nicht für „ABCDEFGH“ zu bremsen, ist vielleicht einfach genug, aber ihr beizubringen, auf 100.000 verschiedene nuancierte Variationen davon korrekt zu reagieren, ist unpraktisch und unrealistisch.

Vielleicht kann Tesla FSD mit diesem Ansatz dennoch ein akzeptables Sicherheitsniveau erreichen. (Ich bin an dieser Stelle skeptisch.) Wie mehrere Benutzer darauf hingewiesen haben, sollte das Ziel jedoch darin bestehen, die Laufwerke zu erhalten glatt und angenehm. Mit diesem Ansatz ist es schwer vorstellbar, dass Tesla das Phantombremsen und Phantomausweichen so weit unterbinden kann, dass das Fahrerlebnis „zufriedenstellend“ wird. Wenn es geht, werde ich freudig überrascht und einer der Ersten sein, die es feiern.

Tesla FSD-Visualisierung auf dem Parkplatz eines Einkaufszentrums. © Zachary Shahan/CleanTechnica

Ich weiß, dass dies eine sehr einfache Analyse ist, und das „Wippenproblem“ ist nur eine Theorie, die auf Benutzererfahrungen und einem ziemlich begrenzten Verständnis dessen basiert, was das KI-Team von Tesla tut, also sage ich überhaupt nicht, dass dies der Fall ist eine Gewissheit. Zum jetzigen Zeitpunkt erscheint es mir jedoch logischer als anzunehmen, dass Tesla der KI angemessen beibringen wird, in den vielen leicht unterschiedlichen Umgebungen und Szenarien, in denen FSD Beta eingesetzt wird, gut zu fahren. Wenn ich hier etwas vermisse oder eine eindeutig fehlerhafte Theorie habe, können Sie mich gerne in den Kommentaren unten rösten.


 


Anzeige




Schätzen Sie die Originalität von CleanTechnica? Erwägen Sie, Mitglied, Unterstützer, Techniker oder Botschafter von CleanTechnica zu werden – oder Gönner auf Patreon.


 

Sie haben einen Tipp für CleanTechnica, möchten werben oder einen Gast für unseren CleanTech Talk Podcast vorschlagen? Kontaktieren Sie uns hier.

source site-34