Ein Angebot von /

Autonomes Fahren: Eine softwaredefinierte Testplattform ist unabdingbar

| Autor / Redakteur: Jeff Phillips* / Hendrik Härter

Für das autonome Fahren sind softwaredefinierte Testplattformen notwendig. Große Mengen an Sensordaten (Sensorfusion) müssen ausgewertet werden, was sich wiederum auf die verwendeten Mikroprozessorarchitekturen auswirkt.
Für das autonome Fahren sind softwaredefinierte Testplattformen notwendig. Große Mengen an Sensordaten (Sensorfusion) müssen ausgewertet werden, was sich wiederum auf die verwendeten Mikroprozessorarchitekturen auswirkt. (Bild: National Instruments)

Für die Fahrzeugsicherheit autonomer Fahrzeuge müssen Unmengen an Sensordaten ausgewertet werden. Das hat Auswirkungen auf Mikroprozessorarchitekturen. Halbleiter- und Fahrzeugindustrie arbeiten enger zusammen.

Laut der Weltgesundheitsorganisation sterben weltweit jedes Jahr mehr als 1,25 Mio. Menschen bei Verkehrsunfällen. Die Kosten dieser Verkehrsunfälle belaufen sich in den meisten Ländern auf bis zu drei Prozent des Bruttoinlandsprodukts. Von den zahlreichen potenziellen Vorteilen, die das autonome Fahren auf persönlicher, wirtschaftlicher und politischer Ebene mit sich bringen wird, macht schon allein die Aussicht darauf, Leben zu retten, das autonome Fahren möglicherweise zur revolutionärsten Erfindung unserer Zeit.

Fahrerassistenzsysteme, auch ADAS genannt, bündeln Sensoren, Prozessoren und Software. Damit verbessert sich die Fahrzeugsicherheit und schlussendlich sind selbstfahrende Funktionen möglich. Ein Großteil dieser Systeme nutzt derzeit nur einen Sensor, beispielsweise ein Radar oder eine Kamera, was bereits zu messbaren Erfolgen geführt hat. Laut einer 2016 von IIHS durchgeführten Untersuchung wurde dank automatischer Bremssysteme die Anzahl der Auffahrunfälle um circa 40% gesenkt. Kollisionswarnsysteme reduzieren Auffahrunfälle mit 23%. Dennoch sind laut Berichten der US-Bundesbehörde für Straßen- und Fahrzeugsicherheit NHTSA 94% der schweren Verkehrsunfälle auf menschliche Fehler zurückzuführen.

Autonomes Fahrens und Sensorfusion

Der Übergang von Fahrerassistenzsystemen zu den Autonomiestufen 4 oder 5, für die kein menschlicher Fahrer mehr erforderlich ist, bedeutet für die Fahrzeugindustrie noch wesentlich größere Herausforderungen als bisher. Denn hier kommt beispielsweise die Sensorfusion zum Einsatz. Hier werden verschiedene Sensordaten zusammengeführt, um eine Entscheidung zu treffen. Sensorfusion erfordert Synchronisierung, Hochleistungsverarbeitung und kontinuierliche Weiterentwicklung aller beteiligten Sensoren. Fahrzeughersteller stehen nun vor der Aufgabe, die richtige Balance zwischen drei wichtigen Faktoren zu finden: Kosten, Technologie und Strategie.

Eine Autonomiestufe drei bedeutet, dass der Fahrer die Umgebung nicht mehr aktiv kontrollieren muss, solange das Fahrzeug die Fahraufgabe unter festgelegten Bedingungen ausführt. Das weltweit erste Serienauto der Autonomiestufe drei wird der 2019er Audi A8 sein. Ausgestattet ist es mit sechs Kameras, fünf Radargeräten, einem LiDAR-Gerät und zwölf Ultraschallsensoren. Warum so viele? Einfach ausgedrückt, weil jede dieser Komponenten individuelle Stärken und Schwächen hat. Ein Radar kann beispielsweise anzeigen, wie schnell sich ein Objekt bewegt, aber nicht, worum es sich bei dem Objekt handelt. Hier kommt die Sensorfusion ins Spiel, da beide Datenpunkte wichtig sind, um das Verhalten eines Objekts vorherzusehen. Redundanz ist nötig, um die jeweiligen Schwächen der einzelnen Sensoren zu kompensieren.

Konzept eines zentralen Prozessors

Das ultimative Ziel der Sensordatenverarbeitung ist die absolut zuverlässige Abbildung der Umgebung um das Fahrzeug, die dann von den Algorithmen zur Entscheidungsfindung verarbeitet wird. Das muss jedoch kostengünstig erfolgen, damit das Endprodukt profitabel ist. Hier spielt die Software eine entscheidende Rolle. Dabei sind drei wichtige Aspekte zu berücksichtigen: die nahtlose Synchronisierung von Messungen, die Datenrückverfolgung gewährleisten und der Softwaretest für eine fast endlose Anzahl an realen Szenarien. Jede dieser Anforderungen ist für sich genommen schon komplex genug, wobei für das autonome Fahren alle drei erfüllt werden müssen. Aber zu welchen Kosten?.

Die Verarbeitungsfunktionen von ADAS-Systemen basieren bisher auf mehreren, isolierten Steuergeräten. Mit der Sensorfusion wird jedoch auch das Konzept eines zentralen Prozessors immer beliebter, wie im genannten Beispiel des Audi A8: Im 2019er Modell hat Audi die erforderlichen Sensoren, das Funktionsportfolio, die Elektronik und die Softwarearchitektur in einem zentralen System zusammengefasst. Dieser zentrale Controller berechnet das gesamte Modell der Fahrzeugumgebung und aktiviert alle Assistenzsysteme entsprechend. Das System hat allein eine höhere Verarbeitungsleistung als sämtliche Systeme des Audi-A8-Vorgängermodells zusammen.

Das Hauptproblem bei solch einer zentralisierten Architektur sind die Kosten für die Hochleistungsverarbeitung, insbesondere, da das Fahrzeug noch über einen zweiten Sensorfusions-Controller als Sicherheits-Backup verfügen muss. Im Laufe der Zeit und mit der Weiterentwicklung der Controller und ihrer Verarbeitungsfunktionen werden die Präferenzen sicherlich zwischen verteilten und zentralisierten Architekturen hin und her schwanken, weshalb Unternehmen auf softwaredefinierte Testsysteme setzen sollten, um mit den Entwicklungen Schritt zu halten.

Im 2019er Audi A8, ein Fahrzeug der Autonomiestufe drei, sind beispielsweise sechs Kameras, fünf Radargeräte, ein LiDAR und zwölf Ultraschallsensoren verbaut.
Im 2019er Audi A8, ein Fahrzeug der Autonomiestufe drei, sind beispielsweise sechs Kameras, fünf Radargeräte, ein LiDAR und zwölf Ultraschallsensoren verbaut. (Bild: National Instruments)

Eine intern entwickelte vs. handelsübliche Technik

Für die Autonomiestufe fünf muss der Mikroprozessor eines autonomen Fahrzeugs die 2000-fache Verarbeitungsleistung der aktuell in Controllern eingesetzten Mikroprozessoren bieten. Dadurch wird die Technologie schnell teurer als die HF-Komponenten eines Millimeter-Wellen-Radarsystems. Die Vergangenheit hat jedoch gezeigt, dass immer teurer werdende Technologien, für die gleichzeitig eine große Nachfrage besteht, Akteure aus angrenzenden Märkten auf den Plan rufen, wodurch sich der Wettbewerb unter den Marktteilnehmern erhöht.

Laut Schätzungen von UBS wird der elektrische Antriebsstrang des Chevrolet Bolt sechs- bis zehnmal so viele Halbleiteranteile besitzen wie ein vergleichbares Auto mit Verbrennungsmotor. Da der Anteil an Halbleiterkomponenten in Fahrzeugen in Zukunft nur noch weiter ansteigen wird, lässt sich hier von benachbarten Märkten profitieren, die optimierte handelsübliche Technologien bereitstellen. So hat Nvidia seine Tegra-Plattform, die ursprünglich für den Einsatz in Verbrauchertechnologie entwickelt wurde, mittlerweile für ADAS-Fahrzeugsysteme angepasst. Auf der anderen Seite hat der Automobilzulieferer Denso begonnen, eigene KI-Mikroprozessoren zu entwickeln und herzustellen, um Kosten und Energieverbrauch zu senken, und NSITEXE Inc., eine Tochterfirma von Denso, plant für 2022 die Veröffentlichung eines Datenflussprozessors mit Prozessor-IP der nächsten Generation namens DFP. Das Rennen ist eröffnet.

Redundante vs. komplementäre Sensoren und ihre jeweiligen Spezifikationen.
Redundante vs. komplementäre Sensoren und ihre jeweiligen Spezifikationen. (Bild: National Instruments)

Validierungs- und Produktionstests mit flexibler Software

Die getroffenen Entscheidungen werden enorme Auswirkungen auf die Time-to-Market und die Differenzierungsmöglichkeiten entlang der Lieferkette haben. Dabei wird das schnelle Neukonfigurieren von Testsystemen zu einer unabdingbaren Voraussetzung, um den Kosten- und Zeitaufwand für Validierungs- und Produktionstests so gering wie möglich zu halten. Der Schlüssel hierfür ist Flexibilität durch Software. Am 4. März 2018 veröffentlichte der Wirtschaftsdienst Bloomberg ein Interview mit Dr. James Kuffner, CEO des Toyota Research Institute-Advanced Development: „Wir verdoppeln unser Budget nicht nur, wir vierfachen es. Wir werden fast vier Mrd. US-$ investieren, um Toyota zu einem Mobilitätsunternehmen zu machen, das in Sachen Software zur Weltspitze gehört.“

Mit dieser Einstellung ist Toyota im Fahrzeugmarkt nicht allein. Auch wenn es noch keine klare Antwort zur besten Lösung gibt, wird, wie schon bei vergangenen industriellen Revolutionen, die Technologien dank einer gestiegenen Produktivität erschwinglich machten, eine höhere Effizienz bei der Softwareentwicklung das autonome Fahren maßgeblich vorantreiben.

Die Vorteile von Lidar-Sensoren im autonomen Fahrzeug

Die Vorteile von Lidar-Sensoren im autonomen Fahrzeug

26.04.18 - Lidar-Sensoren kommen vor allem in autonomen Fahrzeugen zum Einsatz. Zusammen mit einem Lasersystem ergänzen sich beide Techniken. Der Beitrag zeigt neben der Arbeitsweise die Vorteile von Lidar in der Praxis. lesen

Automatisiertes Messen und Testen erfordert ein grundlegendes Umdenken

Automatisiertes Messen und Testen erfordert ein grundlegendes Umdenken

25.01.19 - 5G, autonome Fahrzeuge oder das IoT erfordern beim automatisierten Messen und Testen ein grundlegendes Umdenken. Rahman Jamal von National Instruments erklärt im Interview, was bereits heute möglich ist und wie sich Unternehmen künftig aufstellen müssen. lesen

* Jeff Phillips leitet das Automotive Marketing bei National Instruments.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45760054 / ADAS & Autonomous)