Hey, NTSB, wo ist der Beweis, dass Teslas FSD Beta gefährlich ist?

Letzte Woche wurde bekannt, dass das National Transportation Safety Board (NTSB) war Bitten Sie die National Highway Traffic Safety Administration (NHTSA), gegen ADAS-Systeme vorzugehenund ruft Tesla speziell wegen der angeblichen Gefahren des FSD Beta-Programms auf. Der Brief (wie viele andere Kritikpunkte von Tesla FSD) ist falsch.

Ich würde schneller dazu kommen, aber ich hatte das Gefühl, dass wir eine Einführung für Leser zu einem zugrunde liegenden Problem in der Community der Befürworter der Fahrzeugsicherheit benötigen. Ich nenne es die Kirche der Fahrzeugsicherheit. Es gibt viele Befürworter der Sicherheit, die verlangen, dass wir die Dinge, die sie sagen, nur im Glauben akzeptieren, wenn es wirklich keine wissenschaftliche Grundlage für das gibt, was sie sagen. Wenn wir ihr Wort für die Dinge genommen haben, sind wir unnötig gestorben, wie in der Serie beschrieben.

Das letzter Brief, der von einer Regierungsbehörde an eine andere geschickt wurde ist noch ein weiteres Beispiel dafür. Sie gaben gute Beispiele für die tatsächliche schlechte Handhabung automatisierter Fahrzeugtests für ein in Las Vegas tätiges Unternehmen und für Ubers Fehler. In Las Vegas sollte der automatisierte People Mover von Keolis North America einen Mitarbeiter haben, der jederzeit bereit war, die Kontrolle zu übernehmen, und er hatte tatsächlich keinen Zugriff auf diese Kontrollen. In Ubers Fall verursachte ihr unaufmerksamer Testfahrer tatsächlich den Tod einer Frau.

Als der Brief bei Tesla ankam, verwendeten sie jedoch einen ganz anderen Standard:

„Tesla hat kürzlich eine Beta-Version seines Level 2-Autopilot-Systems veröffentlicht, die als voll funktionsfähig beschrieben wird. Mit der Freigabe des Systems testet Tesla auf öffentlichen Straßen eine hochautomatisierte AV-Technologie mit eingeschränkten Überwachungs- oder Berichtspflichten. Obwohl Tesla einen Haftungsausschluss enthält, der besagt, dass "derzeit aktivierte Funktionen eine aktive Fahrerüberwachung erfordern und das Fahrzeug nicht autonom machen", bietet NHTSA einen praktischen Ansatz zur Überwachung von AV-Tests stellt ein potenzielles Risiko für Autofahrer dar und andere Verkehrsteilnehmer. “ (Betonung hinzugefügt)

Während andere Unternehmen, die AVs testen, auf tatsächliche Unfälle hingewiesen werden, wird Tesla anhand eines „mögliches Risiko, ”Und das bedeutet, dass NHTSA hart gegen sie vorgehen muss.

Um fair zu sein, gab es einige Todesfälle und Unfälle bei Personen, die Autopilot verwenden, aber in jedem Fall wurde das System schwer missbraucht. Einige der Verstorbenen verließen sogar den Fahrersitz vollständig, obwohl sie wussten, dass das System kein autonomes Fahrzeug sein sollte.

Tesla war jedoch beim Testen seiner FSD Beta viel vorsichtiger. Die experimentelle Software wurde zunächst nur wenigen Testern mit guten Fahraufzeichnungen zur Verfügung gestellt, die von nicht mehr als 1000 Personen verwendet wurden. Kürzlich gab Elon Musk bekannt, dass einige Leute den Zugang zur Beta verloren haben, weil sie nicht aufgepasst haben.

Darüber hinaus hat das Unternehmen sogar die Innenkamera des Autos verwendet, um die Aufmerksamkeit des Fahrers zu überwachen, und dies ist etwas, wozu Sicherheitsanwälte Tesla gedrängt haben.

Das vielleicht wichtigste ist, dass es trotz vieler Handgriffe der Church of Automotive Safety (ich war dumm und habe das selbst ein bisschen gemacht) keine Unfälle gab, bei denen wir wissen, dass wir die FSD Beta verwenden. Keiner. Elon Musk sagt nicht nur, dass es unter Betatestern keine Unfälle gegeben hat, sondern es gibt auch keine Medienberichte über einen solchen Unfall, und Sie wissen, dass sie alle hinter sich haben würden, wenn es einen gäbe.

Es gibt noch eine andere Kritik, die ich in den letzten Wochen angesprochen habe und die ich ansprechen möchte, bevor ich fortfahre: die Idee, dass Tesla unehrlich ist, wenn es Kunden sagt, dass FSD letztendlich autonom sein wird, während es den Aufsichtsbehörden mitteilt, dass die FSD Beta wird immer Level 2 sein.

Beachten Sie den Unterschied dort: "Beta. Tesla hat niemandem gesagt, dass die FSD Beta tatsächlich ein vollständig selbstfahrendes autonomes System ist. Es ist ein BETA. Es wird getestet. Es erfordert, dass jemand darüber wacht, da es sich um ein unvollständiges Softwarepaket handelt, von dem jeder weiß, dass es nicht für die Hauptsendezeit bereit ist. Natürlich wird die Beta immer Level 2 sein! Niemand bei Tesla je sagte anders.

Wir können den ganzen Tag darüber streiten, ob Tesla jemals Full Self Driving erreichen wird, aber das ist ein völlig anderes Argument und es ist unehrlich, Aussagen über das Endprodukt mit Aussagen über die unvollendete Software zu verbinden.

Ist es ratsam, nur auf der Grundlage potenzieller Risiken zu regulieren?

Die kurze Antwort: Nein.

Wie ich bereits wiederholt betont habe, ist der Mythos "Sicherheit geht vor" heißer Müll. Absolute Sicherheit ist niemals möglich, und wir können uns tatsächlich weniger sicher machen, wenn wir versuchen, 100% ige Sicherheit zu erreichen. Das einzige, was wir mit Sicherheit sagen können (zumindest mit der aktuellen Technologie), ist, dass 100% der Menschen irgendwann sterben werden. Niemand kommt lebend raus. Das bedeutet nicht, dass wir nachlässig sein und keine Vorsichtsmaßnahmen treffen sollten (Tesla trifft Vorsichtsmaßnahmen), aber wir können nicht alle Risiken loswerden, ohne dass alle verhungern oder eine stagnierende, repressive Gesellschaft.

Sicherheit steht an dritter Stelle. Dinge zu erledigen und Geld zu verdienen (oder Spaß zu haben) steht an erster Stelle. Wir gehen gerne riskante Verhaltensweisen wie Fahren, Mountainbiken und sogar Gehen ein. Risiko ist ein normaler Teil des Lebens und wir sollten nichts anderes vorgeben.

Wenn wir so tun, als wären wir alle Risiken beseitigt, übernehmen die Menschen keine persönliche Verantwortung mehr und der gesunde Menschenverstand geht aus dem Fenster. Selbst wenn Sie ein "Walk" -Schild vor sich haben, ist es immer noch eine gute Idee, schnell in beide Richtungen zu schauen, bevor Sie auf die Straße gehen, da das Befolgen von Regeln (nicht gehen, wenn dort steht "Don't Walk") dies kann Hilfe bei der Sicherheit, aber Sicherheit wird nicht garantiert, indem nur die Regeln befolgt werden.

Unabhängig davon, wie viele Regeln NTSB NHTSA für autonome Fahrzeugtests anwenden lässt, wird von Testfahrern immer gesunder Menschenverstand verlangt. Selbst wenn jeder Testfahrer eine Klasse durchlaufen muss, wenn der Testfahrer seine Pflicht vollständig aufgibt (und beispielsweise Reality-TV wie der Uber-Fahrer sieht), werden schlimme Dinge passieren. Kein Training kann jemanden davon abhalten, etwas Dummes zu tun – das wird immer eine persönliche Verantwortung sein.

Das FSD Beta-Programm von Tesla funktioniert und der Beweis liegt im Pudding. Testfahrer werden in gewisser Weise mit der Innenkamera überwacht und unaufmerksame Treiber werden entfernt. Die verbleibenden Fahrer hatten während der Verwendung der Software keine Unfälle, daher muss Tesla etwas richtig machen. Jetzt auf sie herabzukommen, würde keinen Sinn ergeben.

Ausgewählter Magier: Autopilot-Marketingbilder von Tesla.


Schätzen Sie die Originalität von CleanTechnica? Erwägen Sie, ein CleanTechnica-Mitglied, Unterstützer oder Botschafter zu werden – oder ein Benutzer von Patreon.
Haben Sie einen Tipp für CleanTechnica, möchten Sie Werbung schalten oder einen Gast für unseren CleanTech Talk-Podcast vorschlagen? Kontaktieren Sie uns hier.

Neuer Podcast: Prognose von EV-Verkäufen und EV-Batterie- und Metallpreisen – Interview mit BloombergNEFs Leiter Clean Power Research