Es war klare Sicht und nur wenig Verkehr, als ein Teslafahrer in Taiwan mit aktiviertem Autopiloten und voller Geschwindigkeit gegen einen umgekippten Lastwagen krachte, der die Fahrspur blockierte. Was er dabei tat, ob er das Hindernis vor sich auf der Straße nicht bemerkte oder wie schnell das Model 3 damals unterwegs war, ist nicht bekannt.
Das Netz ist überflutet mit derartigen aufsehenerregenden Unfallvideos, die beweisen sollen, dass das vollständig autonome Fahren noch fern in der Zukunft liegt und die gegenwärtige hochauflösende Kameratechnik noch nicht ausreicht, um Hindernisse auf der Straße bei allen Konditionen sicher zu erkennen. Vor allem ist eine Software erforderlich, die Situationen im Verkehr und auf der Straße in Bruchteilen von Sekunden analysiert. Durch den Vergleich mit gespeicherten Bildern und Szenarien einer Datenbank muss das System schließlich in Windeseile die richtigen Entscheidungen treffen.
Lernprozesse der Software
Bei einer Präsentation vor Journalisten auf der Tech-Messe CES in Las Vegas räumte Ziv Binyamini vom israelischen Unternehmens Foretellix ein:
Das automatisierte Fahren auf Level 3 ist ein hochkomplexer Vorgang – und der kamerabasierte Autopilot von Tesla hat offensichtlich ein Problem mit Objekten, die sich nicht bewegen.“ – Ziv Binyamini, CEO und Co-Gründer Foretellix
Gemeinsam mit Kollegen hat sich der ehemalige Intel-Manager dieser Herausforderung angenommen und eine Software entwickelt, die der Verifizierung und Validierung von Daten für vollautonomes Fahren dient.
Denn sogenannte Computer-Vision-Systeme erkennen im Unterschied zum Menschen nur Dinge, auf die sie zuvor trainiert wurden – erst in Computersimulationen im Labor, später dann auf der Straße. Und das kann dauern: Um alle Verkehrssituationen bei realen Straßentests zu erfassen, wären theoretisch über 500 Jahre oder 17 Billionen Fahrkilometer erforderlich, rechnete Binyamini vor. Und auch dann wären längst nicht alle denkbaren Fahrsituationen und möglichen Reaktionen von Menschen und Tieren (Hunde, Katzen, Elche, auch Kängurus) im Verkehr erfasst.
„Computer Vision-Systeme“ haben einen signifikanten Nachteil gegenüber dem menschlichen Verstand: sie können nur Gegenstände erkennen, auf die sie im Vorfeld geschult wurden. Zunächst geschieht dies durch computergestützte Simulationen im Labor, gefolgt von praktischen Tests auf der Straße. Allerdings ist dies ein langer Prozess. Theoretisch benötigt die Software über 500 Jahre oder 17 Billionen Fahrkilometer, bis alle realen Verkehrssituationen im Straßenverkehr erfasst wären, wie Binyamini berechnete. Selbst dann wären nicht alle möglichen Verkehrssituationen mit Menschen und Tieren, wie Hunden, Katzen, Elchen oder Kängurus, erfasst.
Durch Fahrermangel steigt Interesse an neuer Technologie
Diese 500 Jahre aber kann die Autoindustrie nicht warten. Bis zum Ende dieses Jahrzehnts soll das Level 4 des hochautomatisierten Fahrens erreicht werden, was die Vorstufe zum vollständig autonomen Fahren ist. In diesem Stadium wird vom Bordcomputer die komplette Kontrolle über das Auto übernommen, während Fahrer*innen nur noch Passagiere sind. Obwohl sie weiterhin fahrtüchtig sein müssen, um im Notfall wieder selbstständig fahren zu können, können sie schlafen oder ihr Smartphone verwenden. Binyamini ist sich sicher, dass Level 4 immerhin in der Hub-to-Hub-Logistik (Fahrten von LKW auf Schnellstraßen zwischen Logistikzentren) realisiert werden kann, da der Mangel von Fahrer*innen im Straßengüterverkehr eine zunehmende Problematik darstellt, nicht nur in den USA. Dies ist auch der Grund, warum sowohl Daimler Trucks als auch Volvo mit Foretellix zusammenarbeiten und in das Unternehmen investieren.
Die Technologie im Verkehr mit PKW hat bisher lediglich das Level 3 erreicht und nicht viele Autos, wie z. B. der Mercedes EQS oder in nächster Zeit der BMW i7, können über längere Distanzen und auf der Autobahn selbständig fahren. Die gesetzliche Regelung in Deutschland, die erst kürzlich vom Bundesverkehrsministerium geändert wurde, lässt Geschwindigkeiten von 60 km/h und im Verlauf des Jahres zunehmend auf 130 km/h zu. Dabei können sich Fahrer*innen der entsprechend zugelassenen Fahrzeuge also unterwegs im Auto auch anderen Dingen widmen, mit freien Händen und Füßen, denn die müssen nun nicht mehr fahrbereit positioniert sein. Tesla wiederum mit dem 3.800 € teuren „Enhanced Autopilot“-System kommt zurzeit nicht über das Level 2 des teilautomatisierten Fahrens hinweg.
Darin liegt die schwierigste Aufgabe für Autohersteller: der Integration eines sensorgestützten Systems, um dem Bordcomputer genaue Informationen für seine Entscheidungen bei Fahrmanövern zu liefern. Es ist Konsens unter den Experten, dass Kameras allein hierbei nicht ausreichend sind. Radar- sowie sogenannte „LiDAR-Systeme“ (Laser-Scanner) müssen ebenfalls installiert sein, um auch kleinere Gegenstände wie Reifen, Räder, umgefallene Motorräder oder Autoteile zuverlässig zu erkennen, also rechtzeitig, einige hundert Meter zuvor und unabhängig von Wetterbedingungen wie Regen, Schnee oder Gegenlicht.
Tendenz zum Umdenken: Apex.AI-Gründer im Gespräch
Der CEO, Co-Gründer und deutsche Präsident des US-Software-Unternehmens Apex.AI, Jan Becker, konstatiert eine Weiterentwicklung bei der Hardware. Dies führt er nicht zuletzt darauf zurück, dass die oft wenig zukunftsorientierte Denkweise der Produzenten im Automobilsektor dank des technologischen Fortschritts einem Umdenken gewichen zu sein scheint: „Die Sensorik war lange vorrangig kostengetrieben – Kameras durften allenfalls einen zweistelligen Eurobetrag kosten.“
Mittlerweile aber habe die Leistung der Sensorik eine erhöhte Bedeutung. Dadurch seien nicht nur Zulieferunternehmen zu erhöhter Produktion befeuert, sondern es biete auch die Möglichkeit, alternative Systemarchitekturen umzusetzen. Ein Zentralrechner ersetzt nun eine Vielzahl unterschiedlicher Steuergeräte diverser Hersteller. Dies gestattet es, die neuen Funktionen in Fahrzeugen schneller zu integrieren und das Interagieren der Systeme zu verbessern, was zu kürzeren Reaktionszeiten führt.
Dafür hat Apex.AI zahlreiche Software-Bibliotheken und Entwicklungswerkzeuge entwickelt, die schon jetzt den Anforderungen der Automobilbranche an Sicherheit und Zuverlässigkeit gerecht werden. Becker betont, dass damit der Weg zum softwaregesteuerten Auto beschritten werde. Die ersten serienmäßigen Projekte sollen noch in diesem Jahr starten und bis 2026 angewendet werden. „Gerade im Nutzfahrzeugbereich tut sich gerade ungeheuer viel“, so Becker.
Im Bereich der Nutzfahrzeuge tut sich besonders viel, denn hier kann sich die Investition in das vollständig autonome Fahren schneller rentieren, schließlich sind die Fahrer*innen die größten Kostenfaktoren für Speditionen. Wenn in der Zukunft nur noch eine Überwachung des Fahrverhaltens durch Fahrer*innen erforderlich ist und ein Eingreifen, um den Lastwagen in die Stadt oder aus der Stadt zur Autobahn zu manövrieren, wäre bereits viel erreicht. Auch hinsichtlich des Sicherheitsaspektes ist ein großer Fortschritt zu erwarten, denn ein Großteil der Lastwagenunfälle ist auf menschliches Versagen zurückzuführen, wie beispielsweise durch zu geringe Abstände oder zu hohe Geschwindigkeit.
Bionik: Der Raubfisch als Vorbild der Natur
Im Gegensatz zum Menschen ermüden sowohl Computer als auch Kameras und Sensorik nicht. Außerdem sind sie, sofern sie nicht dreckig werden, präziser, hochauflösender und schneller als unsere Augen. Zum Beispiel bieten die Stereo-Kameras des US-Startups Nodar, die auf der CES präsentiert wurden, eine Sichtweite von bis zu 1100 Metern und produzieren in höchster Auflösung Bilder von Gegenständen von bis zu 10 Zentimetern Größe, die dreidimensional durch die passende Software gezeigt werden können. Mit der unschlagbaren Geschwindigkeit und dem guten Preisverhältnis der Technik warb Leaf Jiang, der frühere MIT-Mitarbeiter und Firmengründer, vor Journalisten. Seine Technik sehe er zudem auch in anderen Bereichen als im Straßenverkehr, beispielsweise bei Robotern und Drohnen. Modell gestanden habe für die Entwicklung übrigens der Hammerhai, der für seine außergewöhnliche Sicht und Tiefenwahrnehmung bekannt ist.
Ein Beispiel für Fortschritte auch in der LiDAR-Technik („Light Detection and Ranging“) war auf der CES in Las Vegas zu sehen. Hier wird Licht als gepulster Lasers ausgesendet, um naheliegende Objekte mittels Reflektionen zu erkennen und einzuordnen. Aus dieser großen Anzahl von Daten werden dann 3D-Bilder durch Software gebildet.
Lasertechnik in hochmoderner Sensorik
In Las Vegas wurde also klar: Die Sensoren wurden nicht nur günstiger, sondern auch leistungsfähiger. Ferner werden die Komponenten kleiner und entsprechend einfacher in die Karosserie zu integrieren.
Beispielsweise kann das Laser-System des Unternehmens Opsys, das 2016 in Israel gegründet wurde, auch hinter einer verschmutzungsfreien Windschutzscheibe montiert werden und trotzdem bis zu 300 Meter weit „sehen“. Die Technik verwendet Laserdioden und Halbleiterchips anstelle von mechanischen Mikrospiegeln, welche mit der Zeit ausdienen. Diese senden blitzartige Laserstrahlen mit rasantem Tempo, deren reflektierte Bildpunkte anschließend auf einem Computerchip mit einem CMOS-Sensor ausgewertet werden, wie sie auch in Digitalkameras und Camcordern üblich sind.
Für das vollständig autonome Fahren auf Level 3 wäre eine dieser Einheiten ausreichend, für vollautonome Fahrten von Lastzügen auf Level 4 dann zwei Einheiten, um nach vorn und beispielsweise in den Rücklampen nach hinten und zur Seite ausgerichtet zu sein. Opsys wird das sogenannte „Festkörper-Mikroblitz-LiDAR-System“ ab nächstem Jahr in China herstellen. Die Produktion soll dabei über den Autozulieferer HUAYU Automotive Systems (HASCO) abgewickelt werden, der größtenteils der chinesischen Shanghai Automotive Industry Corporation (SAIC) angehört. Interessant ist dabei, dass auch ein Tochterunternehmen des deutschen Konzerns Rheinmetall (Bereiche Rüstung und Technologie) großer Anteilseigner des Unternehmens ist. In Las Vegas war durch den Gründer sowie Chairman von Opsys – Eitan Gertal – die Rede von Systemkosten in Höhe von 150 Dollar. Das unterbietet deutlich die konventionellen LiDAR-Systeme, z. B. gebaut von Bosch, die 500 Dollar aufrufen. Ein Fortschritt, der Hoffnung macht für autonomes Fahren: bezahlbar und sicher.
Quelle: edison.media – Hochautomatisiertes Fahren zuerst im Lkw-Verkehr?