Dr. Mario Herger, Gründer des Beratungsunternehmens Enterprise Garage, stand als Experte rund um das Thema autonomes Fahren, in dieser Folge des Drive.AI-Podcast zur Verfügung. Er hat uns tiefe Einblicke auf Teslas Weg zum autonomen Fahren geboten sowie anhand realer Beispiele ausgeführt, was aktueller Stand der Dinge bei Tesla FSD Beta ist.
Wer mehr über Mario erfahren möchte, dem kann ich die erste Folge des Drive:AI Podcast ans Herz legen, in diesem haben wir uns ein wenig über seinen Werdegang ausgetauscht, bevor wir auf das nicht lineare Wachstum des autonomen Fahrens zu sprechen gekommen sind.
In der aktuellen Folge haben wir uns mit dem Tesla FSD Beta auseinandergesetzt, quasi der autonomen Fahrlösung von Tesla, die Schritt für Schritt lernt. Dabei sehr viele Daten im Hintergrund sammelt und mit wenig Hardware, dafür umso mehr Software und Algorithmen das Thema „Autonomes Fahren“ angeht. Gegenwärtig ist man bei einer Level-2-Plus-Lösung angelegt. Schreitet aber teilweise mit deutlich höherem Tempo bei der Entwicklung voran, als andere Marktbegleiter.
Im Detail wird uns Mario abholen, mehr dazu erläutern und dann verstehen wir das Thema am Ende der Folge besser. Insofern reinhören, lernen und eine positive Bewertung am Ende der Folge da lassen, wenn du den möchtest!
Gerne kannst du uns auch Fragen zum autonomen Fahren per Mail zukommen lassen, welche dich im Alltag beschäftigen. Die Antwort darauf könnte auch für andere Hörer des Podcasts von Interesse sein. Wie immer gilt: Über Kritik, Kommentare und Co. freuen wir uns. Also gerne melden, auch für die bereits erwähnten Themenvorschläge. Und über eine positive Bewertung beim Podcast-Anbieter deiner Wahl freuen wir uns natürlich auch sehr! Vielen Dank.
Transkript zu Dr. Mario Herger über Tesla FSD Beta und autonomes Fahren bei Tesla
Sebastian
Hey Mario. Vielen Dank, dass du dir heute die Zeit nimmst, dass wir wieder uns ein Stück weit über das Thema „Autonomes Fahren“ unterhalten, in dem Fall genauer gesagt über den Tesla-Autopilot FSD Beta, also die autonome Fahrunterstützung von Tesla. Die gibt es ja schon einige Zeit. Du nutzt die selbst auch. Und bevor wir da tiefer einsteigen, vielleicht kannst du uns kurz umreißen, was sich dahinter verbirgt, ob der Autopilot eben Autonomes-Fahren-Level-5 ist, oder was wir da erwarten können.
Dr. Mario Herger
In Nordamerika wohne ich ja in Kalifornien, wie du weißt. Der Zuhörer wird es auch wissen. Es ist die FSD Beta, die Full Self-Driving Beta, mittlerweile an alle, die es bestellt haben, raus gerollt worden. Das heißt, sprich über ein Over-the-Air-Update auf die Autos gespielt worden. Auch auf meines, auch auf das auf meiner Frau. Wir haben also zwei Autos mit FSD Beta, zwei Model 3 für die Interessierten. Und ich habe das seit jetzt ungefähr vier Monaten auf dem Auto. Meine Frau schon etwas länger, weil vorher wurde es nur vergeben nach dem sogenannten Sicherheitsscore.
Das heißt, wir hatten auf der App, der Tesla-App, einen Sicherheitsscore, der bewertet hat, anhand von fünf Kriterien, wie gut man laut dem Sicherheitsscore unterwegs ist, und das beinhaltet unter anderem aggressives Bremsen, aggressives Fahren um die Kurve, Abstand halten, dass man nicht tut, und insgesamt fünf solche Kriterien. Und da hatte meine Frau das etwas früher. Die hat das jetzt drei oder vier Monate früher gehabt.
Wir sehen also das Fahrzeug mit dieser FSD Beta bereits seit also ungefähr sieben, acht Monaten unterwegs. Und vielleicht auch noch einmal als Unterscheidung: Der Autopilot ist nicht die FSD Beta. Das sind zwei unterschiedliche Dinge gewesen. Mittlerweile sind sie miteinander verschmolzen. Das heißt, der Autopilot war ein eigener Software Stack und die FSD Beta, die Full Self-Driving Beta, war ein eigener Software Stack und jetzt sind sie zusammengekommen und der Autopilot ist eine Unterabteilung, Untereinheit von der Full Self-Driving. Das heißt, wenn du heute den Autopiloten auf deinem Auto hast, dann hast du bereits einen, der auf dem Software Stack der Full Self Driving Beta basiert.
Das heißt, der Autopilot selber ist nichts anderes als ein ADAS. Das ist ein Fahrerassistenzsystem Level 2, der die Spur halten kann, Abstand hält und der, je nachdem in welcher Region der Welt du bist, einige Sachen mehr oder weniger kann. Bei uns konnte er beispielsweise auch überholen. Bei uns konnte er zum Beispiel auch eine Autobahnabfahrt fahren und zum Beispiel beim Autobahnkreuz auf die nächste Autobahn hochfahren. Solche Dinge, die dieses System macht. Er versucht auf die schnellere Spur zu fahren, der Autopilot in der Version, so wie wir ihn in Nordamerika haben. Ich weiß nicht genau, welche Funktionen da in Deutschland dabei sind. So was, wie Überholen oder Abfahren oder solche Dinge, waren, glaube ich, nicht verfügbar. Und das ist ganz klar ein Fahrerassistenzsystem, also eigentlich das, was wir als Level 2 bezeichnen würden.
So, jetzt ist die FSD Beta natürlich, die kommt mit einem anderen Anspruch und da muss man auch hier unterscheiden, nämlich den Anspruch und den aktuellen Stand. Der Anspruch ist sicherlich, dass das in Zukunft ein Level-5-System sein wird. Tatsächlich aber ist es aus rechtlicher Sicht von der Zertifizierung, von der Genehmigung her, nichts mehr als ein Level 2. Viele meinen auch, das, was es kann, ist wirklich nichts anderes als ein Level 2.
Da glaube ich, da gibt man dem Bremssystem zu wenig Kredit und die Anstrengungen der Entwickler wertschätzt man da zu wenig. Das System selber versucht ein Level-5-System zu werden, also Tesla versucht das, als ein Level-5-System zu entwickeln. Das heißt, dass das es überall auf der Welt, wo Teslas unterwegs sind, autonom fahren kann, und zwar, man lehnt sich da sehr, sehr weit natürlich hinaus. Man versucht im Gegensatz zu anderen Herstellern, also den Waymos, die Cruises, die Zooxs, die man kennt, das mit einer eingeschränkten Anzahl an Sensortypen zu machen, nämlich nur mit Kameras. Man hatte anfänglich Radar drin und hat man, glaube ich, jetzt ein, zwei Jahre lang keine Radars verbaut im Auto. Jetzt, glaube ich, kommen sie wieder zurück. Jetzt kommen auch noch Kameras mit höherer Auflösung in die neuesten Fahrzeuge hinein. Und dass man nur mit acht Kameras um das Auto herum dieses autonome Fahren, diese FSD Beta, funktionstüchtig macht.
Dabei geht man aber, ganz im Gegensatz zu allen anderen, die natürlich mit LIDARs, Radars, Ultraschall jetzt sogar Thermalkameras, wie Zoox, so unterschiedlichste Sensortypen einsetzen und natürlich Kameras auch, versucht man das nur mit Kameras selbst zu machen, aber nicht nur in einer eingeschränkten Region, also in einer sogenannten ODD, Operational Design Domain, also eine kleine Gegend, die man mal geo-fenced hat, also unter anderem die Stadt San Francisco oder Chandler in Arizona, bei Phoenix, oder ein paar Straßenzüge um das eigene Hauptquartier, sondern wo man sagt: „Okay, wir müssen überall fahren können, wo Teslas fahren.“ Das ist in Nordamerika, also USA und Kanada, das ist in Europa, also alles. Und das ist natürlich ein viel, viel größerer Moonshot, den man hier macht.
Man fährt nicht die drei Straßen um das eigene Hauptquartier herum oder eine Stadt wie San Francisco, die auch schon komplex genug ist, aber wenn man dazu rechnet, dass man dann Autobahn fährt, Tunnels fährt, Kopfsteinpflaster, Linksverkehr, all diese Dinge, die Unterschiede, die kleinen, die man hat, alleine in Europa versus USA, auch die einzelnen Bundesstaaten haben untereinander unterschiedlichste Straßenverkehrsregeln: Darf man rechts abbiegen bei Rot in dem Bundesstaat? Ja oder nein? Gibt es den Jersey Left Turn, wo man links abbiegt, wenn beide Seiten grün haben und dem anderen die Vorfahrt nimmt. Das sind alles so Dinge, die sehr unterschiedlich sind.
Und damit ist das natürlich, was Tesla versucht, aus meiner Sicht heraus softwaretechnisch, ich als ehemaliger Softwareentwickler, eine gewaltige Herausforderung. Da geht man nicht dran und macht das Einfachste. Und dazu muss man wirklich sagen, dass das Einfachste überhaupt nicht einfach ist. Das, was Waymo, Cruise und Co machen, ist gar nicht einfach, sondern sie gehen ran und sagen: „Wir machen das Schwerste von allen. Wir machen alles mit den wenigsten Sensoren von allen, also mit den Sachen, wo wir zahlreiche Algorithmen entwickeln müssen, um diese Sachen zu emulieren, die andere mit ihren Sensoren machen können und unter allen Wetterbedingungen, unter allen Straßenbedingungen, auf verschiedenen Kontinenten.“
Und damit sieht es so aus, und das ist natürlich auch schwierig, dass da kein Fortschritt oder nur wenig Fortschritt ist. Und was hervorsticht, sind dann vor allem die Probleme. Nämlich, dass das Fahrzeug hier einen Fehler macht, da einen Fehler macht und da schon wieder schlecht reagiert hat. Dabei übersieht man aber, was das Fahrzeug tatsächlich kann. Und das ist, glaube ich, etwas, wo man Tesla zu wenig Kredit gibt, zu wenig Anerkennung gibt, was sie hier eigentlich schaffen.
Damit stechen vor allem die ganzen Probleme hervor, die die Tesla-Full-Self-Driving-Betaversion hat. Nämlich, man sieht, dass er falsch irgendwo abbiegt, dass er zu zögerlich ist, dass er in die falsche Fahrspur fährt et cetera. Man übersieht dabei aber leicht, was das Fahrzeug alles bereits heute korrekt löst und wie der Fortschritt hier ist im Vergleich zu noch vor ein, zwei, drei Jahren von dieser Software. Und das System selber zieht die Daten natürlich von allen Fahrzeugen, die die FSD Beta hat. Das heißt, als FSD-Beta-Tester ist das nach wie vor eine Version, wo ich als Fahrer ständig Übersicht behalten muss. Dann werden die Daten auch wieder zu Tesla geschickt und damit werden diese Daten in das Maschinen-Learning-System verwurstet und all diese Sachen, die das System gelernt hat, wieder hereingebracht.
Das heißt, das System ist sicherlich heute noch nicht so weit, dass es ein Level 5 ist. Ganz im Gegenteil, es ist weit davon entfernt. Es ist aber auch nicht ein reines Level-2-System, das gar nichts kann, das nur Spur halten kann. Das macht schon komplexe Manöver, die man sieht. Also wenn ich beispielsweise sie verwende und ins Café fahre von meiner Wohnung aus, dann macht er schon alles. Es sind zwei Meilen, drei Meilen, also so vier, fünf, Kilometer, und dazu müssen wir fünf, sechs Kreuzungen überfahren, mit Ampeln und mit Schulkindern und mehrere Spuren in beide Richtungen und teilweise dann ungeschützt nach links abbiegen, also dort, wo keine Ampel, wo kein Stoppzeichen ist, und das schafft er schon alles, wenn auch manchmal gelegentlich zögerlich oder vielleicht etwas weniger unsicher, aber er schafft es.
Und ich glaube, das ist schon einmal etwas, wenn man es noch nie selber gesehen hat und noch nie drinnen saß in einem Fahrzeug, einem einmal wie Zauberei vorkommt, dass das System das sehr wohl kann. Und dann beginnt man natürlich zu überlegen: „Okay, was ist alles noch notwendig?“ Und diese Schritte, um das System dann perfekt zu machen, also perfekt wird man es nicht hinbekommen, aber um das System zu verbessern, das wird immer schwieriger natürlich. Das heißt, da ist immer mehr Aufwand notwendig, der dahintersteckt. Und damit mag das manchmal sehr, sehr inkrementell und sehr langsam vorkommen, wie dieser Fortschritt erreicht wird.
Sebastian
Vielen Dank schon mal für diese Einblicke und auch die Ausführungen aus deinem Alltag, was das Ganze auch noch mal ein Stück weit greifbarer macht. Ich denke, spannend ist auch die Tatsache, so wie du jetzt auch gesagt hast, die machen das mit acht Kameras, hauptsächlich Software. Wenn man jetzt sagt: „Okay, die stecken die gleiche Technik noch in Hardware rein, wie andere Marktbegleiter beispielsweise“, ich hatte jetzt den NIO ET7 zuletzt zu Gast hier, der zig Kameras, Sensoren und was weiß ich alles mit dran hatte, würde ja Tesla wahrscheinlich auch noch mal einen entsprechenden schnelleren Fortschritt verzeichnen können, definitiv Zulasten der Fahrzeugpreise, was ja dann aber auch wieder die Fahrzeuge auf dem Markt und damit auch die Datengewinnung ein Stück weit reduzieren würde.
Dr. Mario Herger
Jein. Es ist richtig, wenn ich mehr Sensorentypen einbaue, also beispielsweise noch ein LIDAR, ein Laser Detection System, und ein Radar, dass ich damit andere Arten von Informationen bekomm, die mir die Kamera vielleicht nicht oder nur schlecht liefern kann. Speziell bei Witterungsbedingungen, die der Kamera nicht zuträglich sind. Also wenn ich Nebel habe, sehe ich durch ein LIDAR, das mit einem Laserstrahl arbeitet oder mit Laserstrahlen arbeitet – das ist die Mehrzahl –, natürlich viel besser im Nebel als eine Kamera. Oder Sandstürme, all diese Dinge, Schneeflocken, wobei natürlich diese Systeme dann wieder eigene Nachteile haben, abhängig von den Witterungsbedingungen, Schnee, Regentropfen und so weiter, sind auch Dinge, die natürlich diese Systeme beeinflussen. Das heißt, ich brauche hier Algorithmen.
Jetzt ist es aber nicht automatisch so, dass je mehr Sensormodalitäten ich habe, also nicht nur Kameras, sondern LIDARs, Radar, Ultraschall, Thermalkameras, dass ich damit automatisch besser bin. Ich kann nämlich durch unterschiedliche Sensormodalitäten weitere Problemzonen einbauen. Nämlich: Was ist, wenn das LIDAR etwas anzeigt, was die Kamera nicht anzeigt? Wer hat recht? Da können Fehler passieren. Nämlich wenn meine Kriterien, die ich angelegt habe, den falschen Sensortypen präferieren, bevorzugen, recht geben, dann kann das einen Fehler einbauen. Das heißt, ich muss natürlich auch entsprechende Software, entsprechende Daten sammeln, entsprechende Algorithmen, entsprechende Gewichtungsfaktoren haben, die dann entscheiden: Welcher Sensor hat jetzt mehr Recht als der andere? Und das kann falsch sein. Das führt zu mehr Komplexität. Ich muss mehr testen. Das heißt, das ist nicht unbedingt etwas, was hier den Fortschritt rascher macht.
Es könnte sein, dass es mir mehr Optionen gibt, aber mehr Optionen ist nicht unbedingt immer etwas, was besser ist für eine Entscheidung. Wenn ich aus 28 Marmeladensorten auswählen darf, heißt das nicht, dass ich mehr kaufe. Tatsächlich ist das so bei Menschen, wenn ich weniger Optionen habe, wird mehr gekauft, wenn ich nur vier oder fünf Marmeladensorten habe. Und hier, mit den Daten, ist es ähnlich. Abgesehen natürlich davon, und das hast du schon kurz angerissen, diese anderen Sensortypen wie zum Beispiel LIDARs sind nach wie vor kostenintensiv. Sie sind im Preis schon sehr stark gefallen, aber für ein privat besessenes autonome Auto würde das noch einmal $10.000, $15.000, $20.000 hinzufügen, da es jetzt für eine Privatperson nicht unbedingt so leicht zu schlupfen ist. Man schluckt da eher, wenn dann noch einmal für 20.000 da LIDARs dran sind.
Das geht anders natürlich, wenn das Robotertaxis sind, die ich als Firma betreibe. Deshalb sieht man beispielsweise jetzt auch bei Zoox, dass die als Erste auch sagen, sie haben jetzt Thermalkameras eingebaut. Das heißt, sie können das Wärmesignal eines Objektes, also eines Menschen, eines Tieres erkennen, das noch einmal eine andere Qualität an Daten liefert, aber die sind typischerweise heute noch recht teuer und die würde man auf einem privaten Fahrzeug nicht einsetzen.
Sebastian
Leuchtet ja auch ein, dass dann ebendieser Mehrpreis da von $10.000, $15.000, $20.000 dann noch mal eher den Absatz einbrechen lassen, würde bei PKW. Und ich sage mal, die Fahrzeuge sind an sich schon nicht die günstigsten sozusagen, je nachdem, wo du schaust oder was du für einen Geldbeutel hast und da willst du dann eben nicht noch mal dafür drauflegen. Das heißt aber, Tesla macht dann in dem Fall doch auch einiges richtig, dass man sich in Anführungsstrichen nur auf die Kamera beschränkt, die dann softwareseitig und von den Prozessen her entsprechend gut ausformuliert und löst und gar nicht eben erst in diesen Konflikt da eintritt von verschiedenen Sensortypen, die man da unter einen Hut bringen muss.
Dr. Mario Herger
Das ist richtig. Wenn man sich nur auf Kameras konzentriert, dann schafft man diese Komplexität ab. Man fügt aber natürlich eine andere Komplexität hinzu, nämlich, dass gewisse Dinge durch die Kameras nicht präzise in der Form gemessen oder angezeigt werden, wie sie mithilfe anderer Sensoren möglich wäre. Zum Beispiel LIDAR kann hier mir besser gewisse Dinge anzeigen, also Längen von geparkten Autos, schräg geparkten Autos, als Kameras, mit den heutigen Algorithmen allerdings. Das heißt, das muss man immer einschränken. Und typischerweise, wenn wir aus der Vergangenheit extrapolieren in die Zukunft, dann wird man auch mit den Kameras sehr viel mehr schaffen, als das in der Vergangenheit der Fall war, und zwar einfach nur durch Software, durch klügere Algorithmen.
Und zwar, ich gebe Beispiele. Einfach nur Videos, Videokompressionsalgorithmen heute sind so mächtig, dass man mehr oder weniger von voll hochauflösenden 4K-Bildern zu ganz pixeligen für eine miserable Verbindung das rauf und runter brechen kann und es sieht trotzdem auch mit der schlechten Auflösung ausgezeichnet aus. Auch Maschinenlernern, künstliche Intelligenz hat erst auch diesen Schub nicht nur durch höhere Rechenleistung und die Daten, die man hat, geschafft, sondern vor allem auch durch die Arten, wie man herangeht, durch Maschinenlernen.
Das sind im Prinzip Matrizenrechnungen, die man hier hat, mit Gewichtungen, dass man hier herangegangen ist und gemerkt hat, ich kann das jetzt durch diese Knoten durchschicken und dann hinten kommt das raus und dann schicke ich es noch einmal durch und mache verschiedenste andere Sachen, wo der Mensch dabei hilft oder das System sich selbst dabei hilft, also von Deep Learning, Reinforcement Learning, alles was man hier hat, oder gebe ich dem System Regeln vor oder stelle ich Algorithmen, wo das System sich selbst die Regeln erstellt aus den Daten, die sie hat. Man merkt schon, dass sie im Prinzip nichts anderes als Algorithmen. Ein Algorithmus ist nichts anderes als eine Rezeptur, eine Vorschrift. Ein Kochrezept ist ein Algorithmus, mehr oder weniger. Eine Anweisung, wie ich ein IKEA-Kästchen zusammensetze, ist ein Algorithmus.
Das heißt, wir stecken sehr viel mentale Energie hinein, um solche Algorithmen zu verbessern. Dem Erfindungsreichtum von Menschen ist keine Grenzen gesetzt und damit kommen wir auch mit Algorithmen vor, die dann plötzlich in einer Liga spielen, die man früher vielleicht nur mit teurer Hardware hätte machen können. Und in diesem Fall, im vorliegenden Fall, bedeutet das, dass man mit Kameras, mit einfachen Kameras, aber kombiniert mit sehr, ausgezeichneten Algorithmen plötzlich Sachen machen kann, wo man früher teure Hardware brauchte.
Man braucht sich nur sein eigenes Smartphone anschauen. Ich meine, heute bekommt man da Bildqualitäten hoch, die man nur mit professionellen, zigtausenden teuren Kameras gemacht hat, von Foto bis zu Film und Bearbeitung der Bilder nachher. Das sind alles Algorithmen. Wenn mir das vor 10, 20 Jahren niemand gesagt hätte, dann hätten wir den Kopf geschüttelt. Heute nehmen wir es als selbstverständlich. Und auch das wird hier sicherlich der Fall sein.
Gleichzeitig, vielleicht noch, um das abzuschließen: Natürlich auch sehen wir, dass es zu Sensorfusionen kommt. Das heißt, dass wir immer mehr Beispiele sehen, wo reguläre Kameras plötzlich mit LIDARs verschmolzen werden. Das ist eine Box, eine Einheit. Auch Thermalkameras. Das heißt, wir können sicher sein, dass wir in Zukunft das, was wir als normale Kamera bezeichnen, heute ein viel komplexeres Biest ist, das viel weniger kosten wird als eine heutige einfache Kamera, aber eben da mit Laser und mit Thermalsensoren bestückt ist und vielleicht mit Radar bestückt ist, und dass das ein Bruchteil von dem kostet, was eine Kamera heute kostet.
Sebastian
Sehr interessant, also auch gerade die Entwicklung, was dann eben noch in Technik trotzdem auch noch möglich ist, aber vor allem für mich sehr spannend zu sehen, wer da immer noch ganz neu in dieses Thema „Autonomes Fahren“ eintauchen, diese Algorithmen, was für eine Wirkung die haben, und das heißt für mich, wenn ich das mal als Layer einordne, dass Tesla da noch immens viele Schritte auch weiter nach vorn gehen kann, weil die gewinnen tagtäglich Daten aus den fahrenden Fahrzeugen. Das heißt, die Grundlage für die Algorithmen, die Datenbasis wird immer besser oder immer breiter sozusagen, und je stärker sie daran arbeiten, umso weitere Schritte können sie auch vorwärtsgehen, ohne großartig jetzt erst mal auch an der Hardware was zu verändern.
Dr. Mario Herger
Hier kommt ein wunderbares Beispiel, wie Tesla rangeht. Zuerst einmal müssen wir qualifizieren, die Daten, die Tesla bekommt, die Kameradaten und die telemetrischen Daten, sind im Vergleich natürlich zu dem, was ein Zoox, Waymo, Cruise und Co sammeln, mit ihren ganz anderen Daten, von der Qualität her anders. Also sie sind sicherlich nicht informationsdicht so wie die anderen Hersteller das haben. Die anderen Hersteller erzeugen heute mittlerweile 10 Terabyte an Daten pro Stunde pro Fahrzeug. Also wir reden hier von, mehr oder weniger mein Handy hat ein halbes TB an Speicher, also 512 GB. Das heißt, das schreibt 20 Handys voll in einer Stunde, wobei natürlich nicht alle Daten wirklich super wichtig sind, und wenn du stundenlang auf der Autobahn fährst, dann sind diese Daten nicht wirklich super erkenntnisreich.
Aber was Tesla macht, ist, sie haben jetzt mittlerweile vier Millionen Fahrzeuge auf der Straße, die sie an Kunden verkauft haben, die mit diesen Fahrzeugen fahren. Knapp 400.000 haben die FSD Beta. Alle anderen haben natürlich auch diese Daten, die sie erzeugen und die regelmäßig vom Fahrzeug zu Tesla geschickt werden, sofern der Fahrer, die Fahrerin, also die Besitzer des Fahrzeuges zugestimmt haben.
Tesla sitzt damit auf einem riesigen Datenschatz. Sie können also reingreifen und sagen: „Gib mir doch eine Million Tunnelfahrten“, und damit haben sie das und können darüber dann wieder Algorithmen entwickeln, damit das Fahrzeug Tunnel besser erkennt, in Tunneln sich besser verhält. Wie macht das ein traditioneller Hersteller? Der muss ein Fahrzeug ausstatten als Testfahrzeug, schickt es 100-mal durch einen Tunnel in den Alpen, schickt es vielleicht noch durch einen zweiten Tunnel 100-mal durch und dann versuchen sie anhand dieser zwei Tunnels, vielleicht machen sie noch mehr, aber man sieht schon, es kommen ein paar hundert Fahrten damit zustande, während Tesla mit einem Schlag eine Million Tunnelfahrten einfach so herausholen kann.
Tesla hat das gerade auch erst erklärt, wie sie da vorgehen, beispielsweise sie hatten erst den Tesla Investor Day, wo sie ein paar Sachen vorgestellt haben über drei Stunden lang und eines war Unfälle. Und zwar, es ist auf einer Matrix dargestellt. Es gibt Crashtest-Szenarien, die jedes Land, jede Region vorschreibt, also von Frontalversetzen, Frontalunfall, von seitlichen Unfällen et cetera, und die müssen Sie bestehen. Und die haben sie aufgetragen auf der Matrix und dann aber schauen sie sich die Unfalldaten von wirklichen Unfällen an, nämlich Teslas, die in Kollisionen verwickelt sind. Die werden dann hochgeladen, die werden dann auf diese Matrix aufgetragen.
Da sieht man, das sind oft gemischte Szenarien, die hier passieren, und damit können Sie dann beispielsweise rangehen und sagen: „Okay, diese Szenarien, bei so einem Szenario, bei so einem Aufprall ist der Sicherheitsgurt vielleicht anders stark zu straffen, softwaretechnisch, als bei jenem.“ Das heißt, wenn ich die Beschleunigungssensoren, die im Fahrzeug drinnen sind, erkenne, dass es hier diesen und jenen Unfallstyp gibt, dann schaltet die Software den Gurtstraffer anders ein als bei einem anderen Szenario und schützt damit den Passagier besser.
So, und da sieht man schon, was diese Daten uns jetzt helfen an der Stelle, das einmal sicher besser zu machen, um dann eben auch in Zukunft die Full Self-Driving besser zu entwickeln, weil ich diese Daten habe, auch wenn sie weniger informationsdicht sind als die vergleichbaren Daten, die die Zooxs, Waymos und Cruises haben.
Sebastian
Was wir dann aber trotzdem als ganz klaren Vorteil sehen, dass Tesla jetzt, ich sage mal, die fehlende Datenmenge einfach durch die Masse dann auch wieder ausgleicht und daraus dann eben lernt, und das verknüpft dann eben, ich sage mal, diese schwarzen Lücken, die du jetzt bei einem Waymo nicht hast, wenn die 10 TB an Daten pro Fahrzeug pro Stunde aufzeichnen. Das macht dann Tesla mit seinen 400.000-FSD-Beta-Fahrzeugen weg, wo einfach die Menge da ist und dann wird das übereinandergelegt. Also das ist schon eine sehr spannende Entwicklung.
Ich glaube, da haben wir heute das Thema Tesla FSD Beta ein Stück weit besser verstanden, einen guten Überblick darüber bekommen, und können die Hörer, Hörerinnen schon mal was mitnehmen ein Stück weit. Und wir werden uns aber auch in einer weiteren Folge dann noch mal mehr über die anderen Hersteller, die du jetzt auch genannt hast, Waymo, Zoox, noch mal ein Stück auseinandersetzen, um zu sehen, wie deren Entwicklungen im vergangenen Jahr waren. Insofern erst mal vielen Dank hier für die Informationen zu Tesla FSD Beta.
Dr. Mario Herger
Gerne. Sebastian, danke.