Sensorik ist das A und O des autonomen Fahrens. Während herkömmliche autonome Fahrzeuge im Level 4 derzeit auf eine teure Ausstattung von bis zu 30 Kameras, 20 Radaren und 7 LiDAR-Sensoren zurückgreifen, hat Wayve eine neue Idee entwickelt. Der AV2.0-Ansatz ist flexibel durch maschinelles Deep Learning, da es Stärken und Schwächen der Sensorausstattung ausgleichen kann. Entsprechend kann sich die Software laut Herstellerangaben an verschiedene Sensorarchitekturen anpassen.
Was ist aber AV2.0 und warum sind Wayve zufolge Kameras und Radare die wichtigsten Sensoren für den Aufbau eines sicheren und erschwinglichen KI-Fahrsystems?
Optimale Sensorik für selbstfahrende Autos
Über die ideale Zusammensetzung und die Fähigkeiten der Sensoren, die für die Wahrnehmung von Fahrsystemen der Stufen 4 (L4) und 5 (L5) erforderlich sind, gibt es noch immer keinen Konsens. Das menschliche Auge ist lediglich die untere Anforderungsgrenze der Sensorausstattung. Geeignete Software und künstliche Intelligenz sollen die Steuerung eines Fahrzeugs schließlich noch besser und sicherer ermöglichen.
Was ist der derzeitige Stand der Industrie?
In den Vereinigten Staaten hat sich gezeigt, dass autonomes Fahren im Level 4 in einigen zugelassenen Betriebs- und Testbereichen (auch operational design domains bzw. ODD) wie vorgesehen funktioniert mit beeindruckenden, allerdings kostspieligen Sensorpaketen. Die Anbieterplattformen von L4-Fahrten verwenden dabei 15-30 Kameras, 5-20 Radare und 5-7 LiDAR-Sensoren (= light detection and ranging) pro Fahrzeug.
Damit geht die Technik weit über die Kapazitäten des menschlichen Auges hinaus, sowohl in Bezug auf die Anzahl der Sensoren als auch auf die Vielfalt der verwendeten Wellenlängen (vom sichtbaren Licht über Infrarot bis zu Millimeterwellen). Derzeit entspricht diese state-of-the-art Ausstattung dem neuesten Stand im autonomen Fahren und reicht sogar für die L5-Autonomie auf den Straßen aus.
Es hat sich also gezeigt, dass all das funktioniert, aber ist das auch notwendig?
Der AV2.0-Ansatz von Wayve: Neudenken bei Sensoren?
Wayve hat es sich zur Aufgabe gemacht, die autonome Mobilität durch integrierte Intelligenz neu zu definieren. Laut eigenen Angaben ist das Unternehmen das erste, das autonome Fahrzeuge auf öffentlichen Straßen einsetzt, die permanent durch maschinelles Deep Learning Informationen sammeln und verarbeiten. Dieser datenbasierte Ansatz ist flexibel in der Wahl der Sensoren, da er lernt, die Stärken und Schwächen ebendieser auszugleichen.
Dieser Ansatz ermöglicht die Ausstattung des Fahrzeugs mit einem Gesamtpaket von Sensoren, das ein sicheres Fahren auf Basis intelligenter, vernetzter Daten ermöglicht und nicht darauf ausgelegt ist, Situationen mit einzelnen Sensoranalysen zu lösen.
Die AV-Technologie von Wayve entspricht damit den Anforderungen, die an ein optimales Sensorpaket gestellt werden: Sensorfähigkeit, mehr Sicherheit im Vergleich zu menschlichen Fahrer*innen, Erschwinglichkeit sowie eine einfache Herstellung, Integrierbarkeit und Wartung.
Autonomes Fahren: Wie viel darf Sicherheit kosten?
Würden jeden Tag im Jahr 6 vollbesetzte Boeing 747-Jets abstürzen ohne Überlebende, dann entspräche die Anzahl den weltweiten, jährlichen Verkehrstoten: etwa 1,3 Millionen Menschen. Autonome Fahrzeuge ermöglichen, die gesellschaftlichen Vorteile des Autos zu erhalten und gleichzeitig den tödlichen Verlust, den wir alle im Gegenzug für die Vorteile der Mobilität leisten, zu reduzieren oder sogar abzuschaffen. Eine übermenschliche Wahrnehmung ist die Grundlage, auf der wir eine übermenschliche Sicherheit aufbauen können, die die Fehlerquelle Mensch ersetzt.
Wenn sich die Technologie für selbstfahrende Autos schnell verbreiten soll, muss sie über den gesamten Lebenszyklus hinweg erschwinglich sein. Entsprechend sollten sich Sensoren als robust und zuverlässig im Betrieb erweisen, den Extremen des Betriebsumfelds über eine typische Lebensdauer von mehr als 10 Jahren standhalten, unkompliziert integrierbar sein in verschiedene Systeme und für große Stückzahlen fertig- und lieferbar sein.
Ohne diese Eigenschaften entstehen hohe Hardwarekosten, die nur in Nischengeschäften und -märkten funktionieren. Hinsichtlich der Sicherheit kommen außerdem knapp 90 % der Verkehrstoten aus Ländern mit mittlerem und niedrigem Einkommen, wo das autonome Fahren die größten positiven Auswirkungen haben könnte. Möglichst niedrige Preise können also weltweit für mehr Sicherheit sorgen.
Eine Einführung in Kamera- und Radartechnologie
Wie funktioniert Radartechnik im autonomen Fahren?
Radar ist ein kohärentes Messverfahren, das mit Wellenlängen arbeitet, die etwa tausendmal länger sind als das sichtbare Licht. Im Gegensatz zu Kameras können Radare beleuchtungsunabhängig arbeiten und pro Bild gleichzeitig eine Entfernungs- und Bewegungsmessung durch den Dopplereffekt vornehmen (Kohärenz). Allerdings sind bei einer solchen Wellenlänge die Winkelauflösung und -genauigkeit der Radare weitaus geringer als bei einer Kamera.
Unter welchen Bedingungen sind Kameras untauglich?
Es gibt verschiedene Situationen, in denen Kameras ausfallen können und somit nicht mehr genug Informationen für den sicheren Betrieb des Fahrzeugs liefern.
Denkbar sind Totalausfälle durch einen Steinschlag, Hardwarefehler, unzureichende Beleuchtung, Nachtfahrten, schlechte Wetterbedingungen wie Regen, Schnee, Nebel und Schmutz auf der Linse, ein hoher Dynamikbereich des Motivs (z. B. Sonne im Bild, Scheinwerfer) der schwachen Objekte verdeckt oder ein veränderter Dynamikbereich der Szene (z. B. Einfahrt/Ausfahrt aus Tunneln, Schatten von Bäumen/Gebäuden).
Radar als alternative Möglichkeit der Datenerfassung?
Radare haben aufgrund ihrer technischen Eigenschaften die Möglichkeit, die Umgebung wahrzunehmen, wenn die Kamera keine ausreichenden Informationen liefert, und bieten damit Sicherheit z. B. bei Hardwareausfällen. Eine Erfassung der Szenerie ist unabhängig von Tageszeit, Sonne, Sonnenwinkel und Wetterphänomen möglich. Außerdem bündeln sie die Richtungsmessung von Entfernungen und Bewegungen, welche andernfalls aus mehreren Einzelbildern der Kamera abgeleitet werden müssten.
Der W-Band-Radar mit einer Frequenz zwischen 75 und 110 GHz ermöglicht eine solche Erkennung auf Distanz bei schlechten Sichtverhältnissen. Mehrere Faktoren haben in der Vergangenheit dazu beigetragen, dass der entsprechende Automobilradar ein bemerkenswert erschwinglicher Sensor ist. Dazu gehören:
- Jahrelange F&E-Investitionen auf Hardware-Ebene, die dazu geführt haben, dass ganze Radarsysteme auf einer einzigen Leiterplatte untergebracht werden können
- die Verwendung effizienter PCB-basierter Übertragungsleitungen und Antennen sowie kostengünstiger CMOS-Fertigungsprozesse (PCB = Polychlorierte Biphenyle, CMOS = Complementary metal-oxide-semiconductor, Halbleiter)
- Keine beweglichen Teile, eine kleine Materialliste und konventionelle IC- und PCB-Fertigungsmethoden, sodass die Produktion mit konventioneller Fertigungsinfrastruktur schnell skaliert werden kann (IC = integrated circuit)
So wird allein der Markt für Automobilradare des Advanced Driver Assistance System (= ADAS) bis 2028 voraussichtlich mehr als 10 Mrd. $ erreichen. Dies wird zu größeren Märkten, einem weltweiten, gesetzlichen Rahmen und einer umfassenden Integration in der Automobilindustrie führen, wobei Fahrzeugradare bereits jetzt zunehmender Bestandteil der Fahrzeugsensorik sind.
Die rasche Verbreitung von W-Band-Automobilradaren ist wenig überraschend, wenn man bedenkt, wie gut sie für die Automobilindustrie geeignet sind, denn sie halten den anspruchsvollen Umgebungsbedingungen stand, sind kostengünstig in der Herstellung und können an der Außenfläche des Fahrzeugs angebracht werden.
Wayve hat die Entwicklung von einem Prototyp des AV2.0-Ansatzes mit einer Ausstattung aus reiner Kamerasensorik begonnen. Mittlerweile arbeitet das Unternehmen an kommerziellen Versuchen und da bietet Radartechnologie vielversprechende Sicherheitsvorteile bei geringen Kosten, im Vergleich zu zusätzlichen Kameras oder LiDAR.
Volles Potenzial von Kamera und Radar
Bei dem Einsatz von Sensoren geht es natürlich nicht nur um die reine Physik des Sensors selbst. Eine Gottesanbeterin hat beispielsweise zehnmal bessere Augen als der Mensch, aber aufgrund der fehlenden Gehirnmasse, die mit diesen Augen verbunden ist, hat sie auch eine wesentlich schlechtere Wahrnehmung. Ähnlich verhält es sich mit der Intelligenz autonomer Fahrzeuge, schließlich muss die gesammelte Datenmenge auch verarbeitet werden.
Jüngste Fortschritte in der Industrie haben gezeigt, dass maschinelles Lernen für die Fusion von Radar- und Kameradaten erfolgreich eingesetzt werden kann. Die neuronalen Netzwerkarchitekturen sind optimal in der Lage, Kamera- und Radardaten abzugleichen und die komplementären Stärken der verschiedenen Erfassungstechnologien zu nutzen. Die AV2.0-Technik von Wayve scheint also Kameras und Radare im Einsatz mit End-to-End-Learning wesentlich verbessern zu können.
Wayve hat nun also die Einführung von Radaren in ihr Sensorensortiment angekündigt, beginnend mit dem in der Entwicklung befindlichen autonomen Fahrsystem der zweiten Generation. Dabei soll auch die verbesserte Sicherheit gezeigt und das optimale Sensorpaket auf Basis regelmäßiger Auswertungen immer weiter angepasst werden mit entsprechenden Kombinationen aus Sensoren.
Quelle: Wayve – Introducing radar: Wayve’s sensor stack explained