Tesla Dojo Supercomputer erklärt – Wie man eine voll selbstfahrende KI macht

21. November 2020 durch Maarten Vinkhuyzen


Besonderer Dank geht an Lieuwe Vinkhuyzen für die Überprüfung, dass diese sehr vereinfachte Sichtweise auf den Bau neuronaler Netze nicht zu weit von der Realität entfernt war.

Die Bewohner der Tesla-Fanboy-Echokammer haben regelmäßig von dem Tesla Dojo-Supercomputer gehört, und fast niemand wusste, was es war. Es wurde erstmals am Tesla Autonomy Day am 22. April 2019 erwähnt, von dem ich weiß. In jüngerer Zeit haben einige Kommentare von Georg Holtz, Tesmanian und Elon Musk selbst etwas Licht in dieses Projekt gebracht.

Das Wort "Dojo" ist möglicherweise nicht jedem bekannt. Es ist eine Schule oder Trainingseinrichtung für japanische Kampfkünste.

Das Dojo, von dem Elon Musk gesprochen hat, ist auch eine Art Trainingsschule, aber für Computer. Es wird ein Supercomputer, der speziell für das Trainieren neuronaler Netze entwickelt wurde.

Wenn Sie wissen, wofür NN, ASIC oder FPGA steht, überspringen Sie die Erklärungen. Sie sind nicht wirklich Teil dieses Artikels, aber nützliche Basisinformationen für Personen ohne IT-Hintergrund.


Erklärung neuronaler Netze

Solange es funktionierende Computer gab, angefangen mit diesen riesigen Vakuumröhrenmaschinen, die so groß wie ein Haus waren, gab es Programmierer, die versuchten, sie intelligent zu machen, wie ein Mensch. Diese ersten Versionen von „AI“ (künstliche Intelligenz) waren wirklich primitiv. (Wenn Sie ausgehen, fragen Sie: Regnet es draußen? Wenn die Antwort "Ja" lautet, besorgen Sie sich einen Regenschirm. Andernfalls besorgen Sie sich keinen Regenschirm. Dies war natürlich in einem KI-Programm in Großbritannien der Fall.) Es bestand hauptsächlich aus langen Listen von IF… THEN… ELSE… -Anweisungen.

Als die Kunst des Programmierens fortschritt, erhielten wir regelbasierte Programme mit großen Regeltabellen, die sich aus den Antworten von Themenexperten zusammensetzten, die tagelang gefragt wurden, was sie wussten und wie sie zu Schlussfolgerungen kamen. Diese wurden als "Wissensprogramme" bezeichnet und einige waren sogar verwendbar.

Während Programmierer versuchten, ein Programm zu erstellen, das sich wie ein Mensch verhält, untersuchten Neurologen, wie das menschliche Gehirn funktioniert. Sie fanden heraus, dass das Gehirn aus Zellen (Neuronen) besteht, die durch Fäden (Axone und Dendriten) mit anderen Neuronen verbunden sind. Unter Verwendung dieser Fäden senden die Neuronen Signale auf elektrische oder chemische Weise an diese anderen Zellen. Diese Hirngewebe wurden bekannt als biologische neuronale Netze.

Diese biologischen neuronalen Netze wurden zum Modell der ehrgeizigsten Entwickler computergestützter künstlicher Intelligenz. Sie versuchten, die Funktionsweise des menschlichen Gehirns in Software zu kopieren. Es war der Beginn einer jahrzehntelangen Reise von Stolpern, Straßensperren, Misserfolgen und langsamen, aber stetigen Fortschritten. Das „Künstliche Neuronale Netz“ (kurz NN in den Bereichen IT und Informatik) wurde zum vielseitigsten Programm für künstliche Intelligenz.

Es gibt einen sehr großen Unterschied zwischen diesen NN und den traditionell programmierten Wissensprogrammen. Bei der herkömmlichen Programmierung werden IF-THEN-ELSE-Strukturen und Regeltabellen verwendet. Der Programmierer entscheidet, wie die Reaktion (Ausgabe) auf ein bestimmtes Ereignis (Eingabe) sein wird.

Das Verhalten eines NN ist nicht programmiert. Genau wie ein biologisches NN wird es durch Erfahrung trainiert. Ein NN-Programm ohne Training ist für nichts gut. Es extrahiert die Merkmale von „richtigen“ und „falschen“ Beispielen aus Tausenden oder Millionen von Proben, die es während des Trainings füttert. Allen diesen Merkmalen wird für ihre Bedeutung ein Gewicht zugewiesen.

Wenn einem trainierten NN ein neues Ereignis zugeführt wird, zerlegt es es in erkennbare Merkmale und entscheidet anhand der Gewichte dieser Merkmale, wie auf das Ereignis reagiert werden soll. Es ist oft fast unmöglich nachzuvollziehen, warum ein Ereignis zu einer bestimmten Reaktion geführt hat. Noch schwieriger ist es, vorherzusagen, wie die Reaktion auf ein Ereignis sein wird.

Ein leerer NN, eine leere Tafel, ist keine KI. Ein trainierter NN kann zur KI werden. Wenn ein Wissensprogramm vorhersehbar auf ein programmiertes Ereignis reagiert, reagiert ein gut ausgebildeter NN auf originelle Weise auf ein unbekanntes Ereignis. Diese Reaktion sollte innerhalb der Parameter liegen, die wir als „gute“ Reaktion betrachten. Dies schafft eine völlig neue Reihe von Herausforderungen beim Testen eines trainierten NN. Ist es zu einer KI geworden und ist es klug genug, einige Aufgaben an es zu delegieren?


Erklärung des ASIC

Wenn die meisten Menschen an einen Computer oder ihr Telefon denken, sind sie sich vage bewusst, dass sich darin ein Teil befindet, das sie zum Ticken bringt. Dieses Stück ist als "der Chip" bekannt. Für die technologisch Fortgeschrittenen ist es die CPU, die für Zentraleinheit steht.

Dies ist ein modernes technologisches Wunder. Es kann alles berechnen, was es berechnen soll. Aber wie ein Zehnkampfsportler oder ein Schweizer Taschenmesser ist es überhaupt nicht das Beste. Schon früh wurden spezialisierte Helferchips entwickelt – kleine Chips, die eines sehr gut und sehr schnell erledigen können. Sie waren der Tastaturcontroller, der numerische Co-Prozessor für Summen, der Grafikchip für das Malen des Bildschirms und Chips für viele weitere Funktionen – wie Ton, Verschlüsselung, Eingabe-Ausgabe, Netzwerk, drahtlose Signale usw. Zusammen werden sie als bezeichnet Anwendungsspezifische integrierte Schaltkreise, kurz ASIC. Sie können ihre Aufgaben besser und schneller als die CPU erledigen und die CPU für alle anderen Aufgaben freigeben, die nicht an einen ASIC delegiert sind.

Was diese dedizierten Chips schneller macht als das CPU-Geschwindigkeitsmonster, ist, dass die von der CPU ausgeführte Software durch Hardware ersetzt wird, die nur die Anweisungen ausführen kann, für die sie entwickelt wurde. Ein Befehlssatz (auch als Algorithmus bezeichnet) kann bis zu tausendmal schneller sein, wenn er über eine eigene Hardware verfügt.

In dem von Tesla entwickelten Full Self-Driving (FSD) -Chip, dem Herzen von Autopilot HW3.0, gibt es etwa ein halbes Dutzend Befehlssätze, die milliardenfach ausgeführt werden. Diese werden durch dedizierte Schaltkreise ersetzt, die den Tesla FSD-Chip schneller machen als alle Chips, die nicht für den Betrieb des Tesla Neural Network ausgelegt sind.

Im Tesla-Rechenzentrum wird das neuronale Netzwerk auf einem großen Supercomputer trainiert, der viel zu groß ist, um ihn in einem Auto oder sogar einem großen Sattelschlepper zu haben. Es befindet sich in einem Gebäude. Für das Training des neuronalen Netzwerks gibt es andere Befehlssätze, die auf diesem Supercomputer Billionen Mal ausgeführt werden müssen. Wenn Sie diese auf dedizierten Schaltkreisen ausführen, kann dies die Ausführung dieser Anweisungen um einige Größenordnungen beschleunigen, wie Elon gerne sagt.


Erklärung des FPGA

Chips herzustellen ist teuer – so teuer, dass Unternehmen es mögen AMD und Nvidia mache keine eigenen Chips mehr. Das ist an spezialisierte Gießereien ausgelagert. Wenn der Code einen Fehler enthält, der fest auf Ihrem Chip verdrahtet ist, haben Sie nach dem Backen des Chips in einer Gießerei möglicherweise einige hundert Millionen Dollar in Briefbeschwerer umgewandelt. Nicht die beste Verwendung Ihres Geldes.

Um sicherzustellen, dass die entworfenen Chips wie vorgesehen funktionieren, müssen Sie sie testen, bevor Sie sie herstellen. Das ist, als würde man den Pudding probieren, bevor man ihn macht. Es ist nicht einfach.

Es gibt eine spezielle Art von Chip, die als "Field Programmable Gate Array" (FPGA) bezeichnet wird. Es ist ein beeindruckender Name, und ich habe keine Ahnung, was er bedeutet oder wie sie funktionieren. Ich weiß nur ungefähr, was sie tun können.

Diese FPGAs können nach dem Backen für ein anderes Hardwarelayout konfiguriert werden. Sie können so eingestellt werden, dass sie sich so verhalten, als ob der Algorithmus im Chip fest codiert ist. FPGAs werden verwendet, wenn Sie die zusätzliche Geschwindigkeit eines ASIC benötigen, ein echter ASIC jedoch zu teuer ist oder zu lange dauert. Ein FPGA ist nicht so schnell wie ein dedizierter / gebackener ASIC, aber es ist immer noch viel schneller als das Ausführen von Software. Diese werden hauptsächlich für Kleinserien in hochspezialisierten Maschinen, für Forschung und Entwicklung sowie für das Prototyping verwendet.

Mithilfe von FPGA können Sie einen „Proof of Concept“ für den Chip und den Computer erstellen, den Sie entwerfen, und den Code debuggen, den Sie fest verdrahten möchten. Dies verringert die Chance, Briefbeschwerer im Wert von Millionen Dollar herzustellen, erheblich.


Elon Musk sagte kürzlich, dass sein Dojo-Supercomputer jetzt zu 0,01% bereit ist und in einem Jahr betriebsbereit sein sollte. Dieser Kommentar war mehr als verwirrend. Mit 0,01% und in etwas mehr als einem Jahr mit 100% fertig? Das stimmte nicht. Wenn Sie nach zwei oder drei Jahren Arbeit bei 0,01% sind, werden Sie die anderen 99,99% in weniger als einem Jahr erledigen?

Neue Informationen ergaben, dass sich der Kommentar von 0,01% auf den funktionierenden Prototyp bezog, der zur Validierung des Designs des Dojo-Supercomputers verwendet wurde. Der Dojo-Prototyp arbeitete an FPGA-Chips (Field Programmable Gate Array).

Der FPGA-Prototyp-Computer wird von Elon als nur 0,01% der Größe des beabsichtigten Dojo-Computers beschrieben. Ich denke, die 0,01% sind eher eine Redewendung als ein echtes Maß für die Größe. Es ist nur ein sehr kleiner Computer im Vergleich zu dem, was das Dojo in einem Jahr sein wird.

In der Forschungs- und Entwicklungsabteilung, die mit der Entwicklung des Tesla FSD-Systems (auch bekannt als Autopilot) beauftragt ist, arbeiten nicht nur ~ 200 Jedi-Software-Meister an der Autopilot-Software, sondern auch mehr als hundert Hardware-Ingenieure, die mit dem Bau des Dojo-Supercomputers beauftragt sind. (Siehe die CleanTechnica exklusive "Tesla Autopilot Innovation kommt vom Team von ~ 300 Jedi-Ingenieuren – Interview mit Elon Musk.")

Die Herausforderungen für den Dojo-Supercomputer sind die erzeugte Wärme, die Datenmengen, die von den Speichersystemen in den internen Speicher des Computers verschoben werden müssen, und die Ausführungsgeschwindigkeit der NN-Trainingssoftware. Die Ausführung sollte nicht angehalten werden, um auf die Übermittlung neuer Daten vom Speichersystem zu warten. Um die Probleme mit dem Wärme- und Datentransport zu lösen, benötigen sie nur viel Geld, um die besten Lösungen auf dem heutigen Markt zu implementieren. Dieser Artikel befasst sich mit dem Problem der Geschwindigkeit der Softwareausführung.

Ein in der Programmiersprache C codierter Algorithmus im Vergleich zu demselben Algorithmus, der unter Verwendung von Transistoren im Chip fest codiert ist, weist sehr unterschiedliche Ausführungsgeschwindigkeiten auf. Der fest codierte Algorithmus kann hundert- bis tausendmal so schnell sein. Dies bedeutet nicht, dass der Dojo-Computer an einem Tag ein neuronales Netzwerk (NN) trainieren kann, während ein Computer derselben Größe mit optimiertem C-Code möglicherweise 3 Jahre für das Training benötigt. Alle anderen Einschränkungen gelten weiterhin, und in der Software, die auf normaler Hardware ausgeführt wird, befindet sich weiterhin viel Code. Wie stark das Training beschleunigt wird, wird Tesla hoffentlich zeigen, wenn das Dojo in Produktion geht.

Tesla Autopilot ist ein NN, der in einem großen Rechenzentrum unter Verwendung des riesigen Datenstapels trainiert wird, den Tesla gesammelt hat. Alle Tesla-Fahrzeuge auf der Straße mit integrierter FSD-Software (aktiv oder im Schattenmodus) registrieren Verkehrssituationen. Die Situationen, die zum Trainieren des NN verwendet werden können, werden anonymisiert und in das Tesla-Rechenzentrum hochgeladen. Sobald der NN das Fahren gelernt hat, wird er mithilfe der OTA-Update-Technologie (Over-the-Air) auf die Autos heruntergeladen.

Ich habe lange versucht zu verstehen, was ein NN ist und was das Training eines NN bedeutet. Es ist kein Programm, wie es Programmierer normalerweise schreiben. Stattdessen sind seine Aktionen und Reaktionen nicht darin programmiert. Es wertet Eingabedaten anhand von Regeln und Referenzbeispielen aus, die es während seines Trainings selbst erstellt hat.

Ich denke zunächst, dass es ein riesiges, leeres Programm ist, Regeln ohne Regeln oder Referenzdaten auszuführen. Alle Platzhalter für die Regeln und Daten müssen noch ausgefüllt werden. Nach dem Training wird es zu einem Programm, das Aufgaben wie ein Mensch innerhalb der Grenzen seiner beabsichtigten Funktion ausführen kann.

Fachleute auf dem Gebiet der KI nennen alle Versionen eine NN. Aus Gründen der Klarheit verwende ich den Begriff "neuronales Netzwerk" für den Status "leeres Blatt" für die bereits sehr komplexe Software, bevor sie trainiert wird. Ich benutze AI für das trainierte NN, das nach dem Training seine beabsichtigten Funktionen ausführen kann. Diejenigen geschulten NN, die nicht in der Lage sind, das zu tun, was erwartet wird, sind nur fehlgeschlagene Versuche, um den Trainern beizubringen, was nicht funktioniert, wo sie die NN-Software oder die Trainingsdatensätze verbessern müssen.

Vielleicht ist der beste Weg, es für uns zu visualisieren, NN Noobs, es als eine große leere Tabelle mit vielen Registerkarten zu betrachten, aber noch nicht definiert. Es gibt große Formelbibliotheken, viele Datentypen, die wir verwenden können, und eine starke Makrosprache.

Das Training des NN entspricht der Verwendung eines speziellen Programms und eines riesigen Datenrepositorys zum Ausfüllen der Tabelle. Dieses Programm wird verwendet, um Informationen aus den Daten zu extrahieren, zu aggregieren, zu korrelieren, gemeinsame Aspekte zu finden, nach Ursache und Wirkung zu suchen und diese Aspekte dann in den Zellen zu speichern. Als Nächstes definiert dieses Programm die Beziehungen zwischen den Zellen mit Formeln, fügt Regeln zur Interpretation der Ergebnisse hinzu und generiert Berichte und Diagramme basierend auf den von Ihnen eingegebenen Parametern.

Was in diesem auf Tabellenkalkulationen basierenden Programm enthalten ist, sind nicht die Daten oder sogar die Aggregation der Daten, die im Training verwendet werden. Es ist kein riesiges Repository all dieser Beispiele, die in der Schulung verwendet werden. Das bedeutet, ein Standard-Data-Warehouse aufzubauen und die normale Berichterstellungstechnologie zu verwenden.

Das Training wandelt die Daten in Regeln und Beschreibungen um. Einige Regeln sind wichtiger als andere Regeln, und einige Beschreibungen werden anderen vorgezogen. Kein menschlicher Programmierer hat diese Regeln oder Beschreibungen geschrieben oder ihre Bedeutung berechnet. Es ist dieselbe Art von Training, die aus einem menschlichen Baby einen fähigen Erwachsenen macht.

Abhängig von der Art und Weise, wie die Tabelle gefüllt und konfiguriert ist, kann es sich um ein Hauptbuchsystem, ein Inventarsystem, ein Aktienhandels- oder Marketing-System oder um ein hervorragendes Tool zum Ausführen einer politischen Kampagne oder zum Spielen von StarCraft handeln. Dies hängt von den Beispielen für gute und falsche Daten ab, die zum Trainieren verwendet werden. Was das System tut, hängt davon ab, welche Daten zum Trainieren verwendet werden.


Ein Beispiel für die Ausbildung des NN zu einer funktionierenden KI: Ziel ist es, neue Moleküle zu entdecken, die als Medizin eingesetzt werden können. Wählen Sie zunächst eine leere NN mit der gewünschten Größe und Komplexität aus. Sammeln Sie dann Tausende von getesteten chemischen Formeln – in diesem Beispiel die Formeln von 100.000 Molekülen. Die Hälfte von ihnen hat positive Auswirkungen und ist mit „gut“ gekennzeichnet, die andere Hälfte mit „schlecht“.

Verwenden Sie zufällige 90% der Beispiele, um die NN zu trainieren. Füttere es dann die anderen 10% mit der Anweisung, das richtige Etikett zu bestimmen. Wenn der NN das gleiche Etikett anbringt, das beim vorherigen Test für den größten Teil des Testsatzes festgestellt wurde, haben Sie eine funktionierende KI. Andernfalls benötigen Sie möglicherweise mehr Daten, eine größere oder kleinere NN oder eine anders aufgebaute NN. Spülen und wiederholen.


Zum Testen wird ein anderer Datensatz verwendet als für das Training. Das NN enthält keinen komprimierten Datensatz seines Schulungsmaterials, der indiziert und so organisiert ist, dass das mit einem Stoff verknüpfte Etikett schnell nachgeschlagen werden kann. Das wäre Data Warehousing oder eine andere Art der Datenbankabfrage. AI kann die erlernten Regeln auf neue Situationen anwenden. Aus diesem Grund verwenden Sie Testdaten, die im Training nicht verwendet wurden. Was hier beschrieben wird, ist die einfachste Testmethode. Für große und komplexe Systeme gibt es viel komplexere und anspruchsvollere Testmethoden.

In Ihrem Auto läuft die KI auf einem anderen Computer als der Moloch, mit dem das Netzwerk trainiert wurde. Der Unterschied liegt in der Skalierung: Der Tesla HW3.0 FSD-Computer, auf dem die KI ausgeführt wird, passt hinter das Dashboard. Es verarbeitet die Eingaben von den Sensoren in Echtzeit und entscheidet schneller als ein Mensch über die geeignete Aktion.

Der Dojo-Supercomputer mit all seinem unterstützenden Netzwerk und Speicher benötigt ein Rechenzentrum in einem Gebäude. Das System, das den NN trainiert, kann der NN-Software nicht Gigabyte oder Terabyte, sondern Petabyte oder sogar Exabyte an Daten liefern und die Trainingsalgorithmen ausführen. Im FSD-Computer hinter dem Armaturenbrett des Autos ist kein Platz für diese Datenmenge oder diese Art von Rechenleistung. Nur die vom Trainingscomputer daraus ermittelten Regeln sind Teil des trainierten NN, der Autopilot-KI.


Wenn ein menschlicher Programmierer ein großes Softwaresystem ändert, besteht das Ziel darin, so wenig Code wie möglich zu ändern und die Funktionsweise des restlichen Codes nicht zu ändern. Das Testen basiert darauf, genau zu wissen, welcher Code geändert wird und welcher Code nicht geändert wird. Um zu überprüfen, ob der geänderte Code und der gesamte alte Code weiterhin wie beabsichtigt funktionieren, verwenden Programmierer Komponententests, Regressionstests und eine Reihe anderer Methoden, um sicherzustellen, dass die Änderung die Funktion des Systems außerhalb der beabsichtigten Änderung nicht verändert hat.

Die Struktur der Regeln und Beziehungen eines trainierten NN ist unbekannt. Daher kann ein Programmierer sie nicht ändern. Das nur Die übliche Methode zum Ändern des NN besteht darin, es zu löschen, den Trainingsdatensatz um Beispiele für die neue Funktionalität zu erweitern und den NN mit dem neuen Datensatz zu trainieren, beginnend bei Null. Dieser Zyklus wird für jedes Update und jede Korrektur der KI wiederholt. Die neuen Daten können die gesamte Regelsetzung während des Trainings beeinflussen, weit außerhalb der Funktionen, für die sie vorgesehen sind. Stellen Sie sich das als Welleneffekt eines ins Wasser geworfenen Steins vor. Da es nach jedem Aktualisierungszyklus häufig eine völlig neue KI gibt, muss die gesamte Funktionalität getestet werden.

Dies ist der große Unterschied zwischen dem Programmieren durch einen Menschen und dem Trainieren eines NN mit einem Computer. Sie können nicht hineingehen und nur die fehlerhafte Codezeile ändern – zumindest große Teile des Systems werden neu erstellt. Das Testen der Änderung ist ebenso komplex.

Die berühmte StarCraft-KI, die 99,8% der menschlichen Spieler schlagen konnte, wurde in drei Tagen trainiert. Das Erstellen des Datensatzes und das Entwerfen des NN dauerte jedoch drei Jahre. Während dieser 3 Jahre gab es viele Trainings- und Testzyklen, bevor das Ergebnis der letzten Trainingseinheit gut genug war. Die FSD-KI ist viel komplexer. Es wird mit viel mehr Daten trainiert. Es muss unter Verwendung von Elons Lieblingsausdruck um Größenordnungen schneller entwickelt werden als das von StarCraft AI. Andernfalls würde es nächstes Jahrzehnt, wenn nicht nächstes Jahrhundert, dauern, bis FSD und Robotaxis Realität werden.

Bild mit freundlicher Genehmigung Kim Paquette

Ursprünglich waren 2D-Standbilder der Sensoreingang für die FSD AI. Wenn die Benutzerfreundlichkeit dieser Frames nicht gut genug war und sie ein Maximum erreichten, was sie mit solchen Daten erreichen konnten, wechselte Tesla zu einer besseren Eingabe. Das nächste war wahrscheinlich das Zusammenfügen mehrerer Bilder zu einer Panoramaansicht. Nach dem Zusammenfügen wurde den Rahmen eine durch Software generierte Wolke von Lidar-Punktdaten hinzugefügt, um 3D-Bilder zu erstellen. Nach jeder Verbesserung wurde ein anderes lokales Maximum erreicht, was mit den Daten erreicht werden konnte. Das Übergeben eines solchen lokalen Maximums erforderte eine bessere Eingabe und eine leistungsfähigere NN. Durch Hinzufügen von Zeit haben wir jetzt 4D-Videodaten als Eingabe für die KI.

Zwischen dem Erreichen lokaler Maxima gab es viele Iterationen der Kennzeichnung und Erweiterung von Trainingsdatensätzen und der Verbesserung der NN-Software. Es war ein Zyklus von Verbesserungen, Schulungen und Tests, bei dem immer mehr Datensätze in die Trainingsalgorithmen eines immer komplexer werdenden Softwaresystems eingespeist wurden. Die Tests entwickelten sich vom Fahren auf einer einzelnen Autobahnspur zum Fahren vom Ursprung zum Ziel über mehrere Autobahnen und durch Städte.

Dojo wird wahrscheinlich nicht nur ein Trainer sein, sondern auch eine Plattform, um Millionen von Meilen auf simulierten Teststrecken zu fahren. Simulationen sind für das Training nicht gut genug, aber komplexe Situationen, die aus realen Daten abgeleitet werden, können für erste Tests vor dem realen Testen von Alpha- und Beta-Versionen hervorragend geeignet sein.

Bild mit freundlicher Genehmigung Kim Paquette

Die erste frühe Beta-Version der FSD-Software wird einer ausgewählten Kundengruppe zum Testen zur Verfügung gestellt. Nennen Sie es Version 0.92.n.nn des FSD-Systems.

Dieses FSD-System ist nahezu funktionsfähig, aber alle Funktionen müssen dringend verbessert werden. FSD ist kein monolithisches System. Es besteht aus vielen Teilen, die unterschiedliche Funktionen ausführen, Teilen, die zusammenarbeiten und kommunizieren. Viele Teile sind eigenständige neuronale Netze.

Es scheint einen Widerspruch zu geben, ob die Beta jetzt zum Testen verfügbar ist und hoffentlich innerhalb eines Jahres ein funktionierendes System vorhanden ist, oder ob der Dojo-Computer für die Entwicklung benötigt wird, der frühestens in einem Jahr verfügbar sein wird.

Das System, das vollständig ist und in einem Jahr funktioniert, wird noch überwacht werden müssen. Es wird gut, sogar erstaunlich. Es wird nicht perfekt sein. Betrachten Sie es als Version 0.97.n.nn. Für weitere Verbesserungen erfordert das Gesetz der Verringerung der Rendite immer größere Anstrengungen, um die Zuverlässigkeit immer geringer zu machen.

Ein guter Fahrer folgt den Regeln und ist vorhersehbar. Es gibt viele Unterschiede in den Verkehrsregeln: Fahren auf der rechten oder linken Straßenseite. Sollten Sie Ihre Spur behalten oder rechts halten. Zum Beispiel kann ein Überholen auf der rechten Seite Ihren Führerschein in den Niederlanden kosten. Es ist nicht nur eine einfache Verkehrsverletzung wie Parken oder Geschwindigkeitsüberschreitung. Es gibt verschiedene Gewohnheiten: In den Niederlanden passen Sie Ihre Geschwindigkeit an, nachdem Sie das Geschwindigkeitsschild passiert haben, in Deutschland tun Sie dies, bevor Sie das Schild erreichen.

Tesla ist mit der FSD-Entwicklung noch nicht fertig, wenn ein Auto von Los Angeles nach NYC oder von Seattle, Washington, nach Tampa, Florida fahren kann. Das ist nicht einmal das Niveau eines durchschnittlichen Fahrers. Die FSD-KI muss in allen Situationen besser als 99,999% der Fahrer werden. Danach muss es lernen, in etwa 200 Gerichtsbarkeiten mit allen (leicht) unterschiedlichen Regeln, Vorschriften und Gepflogenheiten so zu fahren.

In Teslas FSD-Zukunft muss noch sehr viel trainiert werden. Die maßgeschneiderte CPU für den speziellen Dojo-Computer wird benötigt, um die erforderliche Geschwindigkeit zu erreichen. Die aktuelle Hardware ist einfach nicht schnell genug, um alle FSD AI-Systeme rechtzeitig zu erstellen.


Schätzen Sie die Originalität von CleanTechnica? Erwägen Sie, ein CleanTechnica-Mitglied, Unterstützer oder Botschafter zu werden – oder ein Benutzer von Patreon.

Melden Sie sich kostenlos an täglicher Newsletter oder wöchentlicher Newsletter nie eine Geschichte verpassen.

Haben Sie einen Tipp für CleanTechnica, möchten Sie Werbung schalten oder einen Gast für unseren CleanTech Talk-Podcast vorschlagen? Kontaktieren Sie uns hier.


Neueste Cleantech Talk Episode


Stichworte: KI, ASIC, CPU, kundenspezifischer Chip, Dojo, FPGA, neuronale Netze, Supercomputer, Tesla, Tesla Dojo, Tesla Full Self-Driving, Tesla-Supercomputer


Über den Autor

Maarten Vinkhuyzen Mürrischer alter Mann. Das Beste, was ich in meinem Leben gemacht habe, war, zwei Kinder großzuziehen. Erst abgeschlossene Grundschule, aber wenn Sie nicht zur Schule gehen, haben Sie viel Zeit zum Lesen. Ich wechselte von der Buchhaltung zur Softwareentwicklung und beendete meine Karriere als Systemintegrator und Architekt. Mein Chef von 2007 bekam zwei elektrische Lotus Elise-Autos, um den politischen Entscheidungsträgern die zukünftige Richtung von Energie und Transport zu zeigen. Und seitdem habe ich versucht, meine Dieselautos durch Elektrofahrzeuge zu ersetzen.
Und wenn ich mein Geld dort hinlege, wo mein Mund ist, habe ich Tesla-Aktien gekauft. Ich beabsichtige, sie zu behalten, bis ich sie gegen ein Tesla-Auto eintauschen kann.