Treiber missbraucht Tesla-Autopilot und stürzt ins Cop-Auto ab – Erinnerung daran, während der Fahrt keine Filme anzusehen

4. September 2020 durch Carolyn Fortuna


Autopilot war eingeschaltet. Es war kurz nach Mitternacht in North Carolina, eine Zeit, in der die Straßen größtenteils frei sind. Der Fahrer sah sich einen Film auf seinem Handy an und das Model S prallte gegen das Fahrzeug eines Stellvertreters. Es gibt einen Grund, warum Sie Netflix oder YouTube nicht auf dem Tesla-Infotainment-Bildschirm sehen dürfen.

Bild abgerufen von CBS17 lokal über die North Carolina Highway Patrol

Die Kollision ereignete sich, als ein Stellvertreter und ein Highway Patrol-Soldat laut einem lokalen Nachrichtensender am Straßenrand auf einen früheren Absturz reagierten CBS17. Das Modell S knallte in das Fahrzeug des Stellvertreters, das dann in das Fahrzeug des Soldaten rutschte und beide Offiziere zu Boden drückte.

Zum Glück wurde niemand verletzt. Area Sheriff Keith Stone beschrieb die Szene als "einfache Spurensperrung".

Tesla Autopilot Design & Treiberverantwortung

Mit dem Autopiloten von Tesla kann ein Fahrer eine autonome Technologie einsetzen, die das Lenken, Beschleunigen und Bremsen des Fahrzeugs übernimmt. Es handelt sich um eine „Fahrerassistenz“ -Funktion, die den Fahrer anweist, beim Einschalten des Autopiloten mit den Händen am Lenkrad wachsam zu bleiben – auch bekannt als Level 2-Autonomie.

Gemäß Autopilot-ÜberprüfungTesla Autopilot ist ein erstklassiges System zur Geschwindigkeitsregelung und Spurzentrierung, das hauptsächlich für den Einsatz auf Autobahnen gedacht ist. Die Fahrer müssen jedoch die Parameter der Systemfähigkeit einhalten und auf den Datenverkehr achten.

Tesla stellt klar, dass der Verbraucher letztendlich für die Nutzung der Technologie verantwortlich ist.

Die Situation, in der Autopilot derzeit am anfälligsten ist, besteht darin, dass plötzlich stationäre Objekte mit Autobahngeschwindigkeit auf dem Weg des Fahrzeugs erscheinen. Der Autopilot bremst nicht plötzlich für Schreibwaren, da dies ein höheres Risiko verursachen kann, insbesondere wenn ein falsches Positiv vorliegt.

Die Tesla-Bedienungsanleitung enthält die folgende Warnung:

„Die verkehrsbewusste Geschwindigkeitsregelung kann nicht alle Objekte erkennen und bremst / bremst möglicherweise nicht für Schreibwaren, insbesondere in Situationen, in denen Sie über 80 km / h fahren und ein Fahrzeug, dem Sie folgen, von Ihrem Fahrweg abweicht und sich ein Schreibwarenfahrzeug oder -objekt vor Ihnen befindet von dir stattdessen. "

Teslas Sicherheitsunterlagen

Tesla-Fahrzeuge gehören zu den sichersten Fahrzeugen auf der Straße mit extrem niedrigen Todes- und Verletzungsraten. Tesla ist bekannt als äußerst innovatives Unternehmen, das die kontinuierliche Bereitstellung von Software-Updates über Funk und die Bereitstellung neuer, fortschrittlicher Autopilot-Updates für Verbraucher umfasst.

Der Kunde muss jedoch die Grenzen der Funktionen und die Anweisungen des Systems einhalten.

Tesla erhielt seine erste Versicherungsinstitut für Straßenverkehrssicherheit Auszeichnung mit dem Modell 3 von 2019. Um einen „Top Safety Pick“ zu erhalten, muss ein Fahrzeug gute Bewertungen in den Tests für kleine Überlappungsfront, mäßige Überlappungsfront, Dachfestigkeit und Kopfstützenrückhalteseite auf der Fahrerseite sowie eine gute oder akzeptable Bewertung erhalten Bewertung im beifahrerseitigen Test für kleine Überlappungen. Es benötigt auch ein verfügbares Frontcrash-Verhinderungssystem mit einer fortgeschrittenen oder überlegenen Bewertung und Scheinwerfern mit guter oder akzeptabler Bewertung.

Das Tesla-Fahrzeugsicherheitsbericht bietet an:

"Da jeder Tesla verbunden ist, können wir die Milliarden Meilen realer Daten aus unserer globalen Flotte verwenden, von denen mehr als 1 Milliarde mit eingeschaltetem Autopilot gefahren wurden, um die verschiedenen Arten von Unfällen zu verstehen."

Laut eigenen Daten von Tesla verzeichnete das Unternehmen im 2. Quartal 2020 einen Unfall pro 4,53 Millionen Meilen, die Autofahrer mit Autopilot gefahren waren. (Sie entscheiden, ob der Autopilot eine Sicherheitsverbesserung darstellt.)

Jeder Tesla ist mit standardmäßigen aktiven Sicherheitsfunktionen ausgestattet, zu denen automatisierte Sicherheitssysteme gehören, darunter Spurassistent, Spurverlassensvermeidung, Kollisionsvermeidungsassistent und Geschwindigkeitsassistent. Verbraucher können auch erweiterte Funktionen erwerben, darunter den Modus „Vollständiges Selbstfahren“ (gegen einen Aufpreis von 8000 USD). Full Self-Driving bietet automatisierte Spurwechsel und erweiterte Funktionen für autonomes Fahren wie Navigieren mit dem Autopiloten (autonomes Fahren von der Autobahn auf und ab der Rampe), Smart Summon und Autopark.

Die NHTSA hat gelobt Die Autopilot-Software hilft dabei, Abstürze insgesamt zu minimieren.

Ist "Autopilot" ein passender Name?

"Wie sie das System nennen, hat Auswirkungen auf das, was ein Fahrer versteht." sagt IIHS-Präsident David Harkey. Elon Musk argumentiert seit Jahren, dass „Autopilot“ ein passender Name für die Funktionen ist, da sie im Grunde das Gleiche tun, was Autopilot in einem Flugzeug für einen Piloten tut. Musk, der einen Privatjet besaß, den er nach dem Verkauf von PayPal zur Erholung flog, beschrieben die Ursprünge des Autopilot-Namens im Jahr 2013. „Autopilot ist eine gute Sache in Flugzeugen; Wir sollten es in Autos haben. “

Das Problem tritt auf, wenn die Fahrer erwarten, dass das System mehr leistet als es kann, und wenn das System so gut ist, dass die Fahrer nicht mehr aufpassen, aber nicht gut genug sind, um Unfälle in allen Szenarien zu vermeiden (siehe Artikel oben auf der Seite). Das US National Transportation Safety Board behauptet, dass Fahrer mit teilweiser Autonomie im Auto selbstgefällig werden. Einige Fahrer neigen dazu, Autopilot außerhalb des vorgeschriebenen Betriebsdesigns zu verwenden, was die Verwendung von Autopilot erschwert und den Gefahrenfaktor hervorhebt.

Wir scheinen nicht alle einen neuen Tesla-Besitzer zu kennen, der vorführt, indem er sagt: "Schau! Keine Hände!"? Für alle, die der Meinung sind, dass das System nicht klar genug über seine Grenzen ist, fügt der CEO von CleanTechnica, Zachary Shahan, einen Kontext aus der Sicht eines Eigentümers hinzu:

„Kein Zweifel: Sie dürfen während der Fahrt keinen Film auf Ihrem Handy ansehen. Ich glaube nicht, dass es Verwirrung darüber gibt, ob Sie das dürfen oder nicht. Tesla erlaubt Netflix, YouTube oder anderen Spielen nicht, wenn das Auto nicht im Park steht. Jeder mit einem Tesla weiß das. Und der Grund ist klar: Sie könnten den Fahrer ablenken. Sie können keinen Film ansehen, während Sie die normale Geschwindigkeitsregelung verwenden, und Sie können keinen Film ansehen, während Sie Autopilot verwenden. Dies ist klar und gut etabliert. Das gleiche gilt natürlich auch für das Ansehen von etwas auf Ihrem Telefon. Ich glaube nicht, dass ein Tesla-Besitzer glaubt, dass er während der Fahrt legal einen Film auf seinem Handy sehen darf, nur weil Autopilot eingeschaltet ist. Genauso wie jeder weiß, dass Sie keinen Film auf Ihrem Handy sehen können, nur weil die Geschwindigkeitsregelung aktiviert ist.

„Die Richtlinien von Tesla, verschiedene Warnungen und Infotainment-Einstellungen machen deutlich, dass der Fahrer auf das Fahren achten muss.

„Als Tesla-Besitzer denke ich, dass diese Idee, die an einigen Orten beliebt ist, an denen Tesla-Fahrer nicht wissen, dass dies nur Müll ist. Sie erhalten soooooo viele Warnungen, dass Sie auf die Straße achten, Ihre Hände am Lenkrad halten und wachsam bleiben müssen. Sie müssten ein Stück Sellerie sein, um nicht auf den Punkt zu kommen.

„Ja, es gibt immer noch Leute, die gegen das Gesetz verstoßen. Es gibt immer noch Leute, die trinken und fahren. Es gibt immer noch Leute, die Drogen nehmen und fahren. Es gibt immer noch Leute, die SMS schreiben und fahren (ich sehe es die ganze Zeit in anderen Autos auf der Straße). Und es gibt immer noch Leute, die Filme schauen und fahren (in Teslas und anderen Autos). Es gibt einige Leute, die das Gesetz auf andere Weise stehlen und brechen. Es gibt also auch Leute, die in Teslas gegen das Gesetz verstoßen. Es ist bedauerlich, aber nicht, weil nicht ganz klar ist, was erlaubt ist und was nicht. "

Eine Chronik von US-Autounfällen im Zusammenhang mit Tesla-Autopiloten

Die übermäßige Abhängigkeit von Autopilot bei mehreren Unfällen hat im Laufe der Jahre einige Male die Aufmerksamkeit des National Transportation Safety Board (NTSB) auf sich gezogen. Wurden in der Vergangenheit die gleichen Bedenken hinsichtlich der Geschwindigkeitsregelung geäußert? Wahrscheinlich.

  • 2016: Modell S, Williston, Florida – Das NTSB zitierte die übermäßige Abhängigkeit des Fahrers vom automatisierten System, als das Modell S mit einem aufrechten Sattelauflieger kollidierte.
  • 2018: Modell S, Culver City, Kalifornien – Nach dem tödlichen Unfall von 2018 erklärte Tesla: „Der Autopilot kann sicher auf geteilten und ungeteilten Straßen eingesetzt werden, solange der Fahrer aufmerksam und bereit ist, die Kontrolle zu übernehmen.“ Das NTSB wies auf mehrere Bestandteile hin, die den Absturz nicht verhindern konnten:
    • Tesla: Der Autopilot konnte das Fahrzeug des Fahrers nicht auf der Fahrspur halten, und seine Kollisionsvermeidungssoftware konnte keine Autobahnbarriere erkennen.
    • Der Fahrer: Der Fahrer wurde wahrscheinlich durch ein Spiel auf seinem Handy abgelenkt.
    • Die kalifornische Transportabteilung: Die CTD sollte das Barriereproblem vor dem Unfall behoben haben.
  • 2019: Modell 3, Delray Beach, Florida – Übermäßiges Vertrauen des Fahrers in die Automatisierung und das Design von Tesla: "Das Versäumnis des Unternehmens, die Nutzung des Systems unter den Bedingungen einzuschränken, für die es entwickelt wurde." Der Fahrer wurde getötet, als das Modell S, das er fuhr, einen Sattelschlepper im Querverkehr nicht erkannte und dessen Dach abgeschirmt wurde.
  • 2019: NTSB stellte fest, dass Fahrerfehler und Autopilot-Design zu einem Absturz mit einem Modell S und einem geparkten Feuerwehrauto in Südkalifornien führten. Der Unfallbericht wies auf die wahrscheinliche Ursache des Auffahrunfalls in Culver City hin: „Die mangelnde Reaktion des Fahrers auf das Feuerwehrauto auf seiner Fahrspur aufgrund von Unaufmerksamkeit und übermäßigem Vertrauen in das fortschrittliche Fahrerassistenzsystem des Fahrzeugs; das Autopilot-Design des Tesla, das es dem Fahrer ermöglichte, sich von der Fahraufgabe zu lösen; und die Nutzung des Systems durch den Fahrer in einer Weise, die nicht mit den Anweisungen und Warnungen des Herstellers vereinbar ist. “

Es gab kürzlich einen weiteren Fall außerhalb der USA.

  • 2020: Modell 3, Taiwan – Ein Fahrer in Taiwan wurde von den Medien aufmerksam, als Verkehrskameras seinen Tesla Model 3 erwischten, der nicht wegen eines umgestürzten Nutzfahrzeugs anhielt. Der Autopilot war zum Zeitpunkt der Kollision eingeschaltet, behauptete der Fahrer.

Was ist die Nachricht zum Mitnehmen? Achten Sie auf die Straße. Behalte die Straße im Auge. Dies ist ein Ratschlag, den wir alle erhalten haben, als wir als Teenager den Fahrertitel genommen haben, und der auch heute noch relevant ist.

Letzte Gedanken zum Tesla Autopilot Design

In Bezug auf Hardware und Software gibt es eindeutig einen Bereich, in dem Autopilot immer noch Probleme auf der Autobahn hat. Große Lastwagen, die mitten auf der Straße stehen geblieben sind, werden nicht genau identifiziert. Was wird benötigt, damit das System aus Kameras und Radar so große Hindernisse erkennen kann? Wird das kommende Autopilot-Rewrite, das aus "2D" -Autopilot-Code "3D" -Autopilot-Code macht, dieses Problem lösen?

Muss Tesla einen Mechanismus hinzufügen, um den Blick des Fahrers zu messen, um die Sicherheit des Autopiloten zu verbessern?

Wie wird sich diese Geschichte entwickeln, wenn das Tesla-Netzwerk für Mitfahrgelegenheiten in Privatbesitz über Tesla-Fahrzeuge der Öffentlichkeit zugänglich gemacht wird?

Welche Änderungen sind erforderlich, damit die Roboterachse praktisch und sicher ist?

Welche Anpassungen und Anpassungen sind erforderlich, damit Teslas vollständig selbst fahren kann?


Schätzen Sie die Originalität von CleanTechnica? Erwägen Sie, ein CleanTechnica-Mitglied, Unterstützer oder Botschafter zu werden – oder ein Benutzer von Patreon.

Melden Sie sich kostenlos an täglicher Newsletter oder wöchentlicher Newsletter nie eine Geschichte verpassen.

Haben Sie einen Tipp für CleanTechnica, möchten Sie Werbung schalten oder einen Gast für unseren CleanTech Talk-Podcast vorschlagen? Kontaktieren Sie uns hier.


Neueste Cleantech Talk Episode


Stichworte: Tesla, Tesla-Unfälle, Tesla-Autopilot, Tesla-Autopilot-Unfälle, Tesla-Modell 3, Tesla-Modell 3-Unfälle, Tesla-Modell S.


Über den Autor

Carolyn Fortuna Carolyn Fortuna, Ph.D. ist ein Schriftsteller, Forscher und Pädagoge mit einem lebenslangen Engagement für Umweltgerechtigkeit. Sie hat Auszeichnungen von der Anti-Defamation League, der International Literacy Association und der Leavy Foundation erhalten.
Im Rahmen ihrer Portfolio-Veräußerung erwarb sie 5 Aktien von Tesla.
Bitte folge ihr weiter Twitter und Facebook.