Suchen

Synthetische Daten für das Autonome Fahren

| Autor/ Redakteur: Andreas Burkert / Benjamin Kirchbeck

Entwickler erschaffen eine virtuelle Welt, um Fahrerassistenzsysteme und autonome Fahrfunktionen zu testen, zu trainieren und abzusichern. Im Porsche Engineering Virtual ADAS Testing Center (PEVATeC) entstehen dafür computergenerierte Umgebungen mit physikalisch realistischen Effekten, die viele Erprobungen im realen Straßenverkehr überflüssig machen.

Firmen zum Thema

Die Mitarbeiter am Standort Cluj spielen eine entscheidende Rolle bei der Softwareentwicklung für PEVATeC.
Die Mitarbeiter am Standort Cluj spielen eine entscheidende Rolle bei der Softwareentwicklung für PEVATeC.
(Bild: Porsche)

Kein Mensch ist im Straßenverkehr aufmerksamer als ein Fahrerassistenzsystem. Die dafür nötigen optischen und radarbasierten Sensorsysteme erfassen das Umfeld wesentlich genauer, als ein geübter Fahrer es jemals könnte. Aus den Daten der zahlreich im Auto verbauten und vernetzten Kamera-, Radar-, Lidar- und Ultraschallsysteme ermitteln Algorithmen im Bruchteil einer Sekunde Regelstrategien, um das Fahrzeug in einer riskanten Situation bestmöglich zu steuern. Und das mit einer enormen Präzision. So verwundert es nicht, dass Fahrerassistenzsysteme nachweislich das Unfallrisiko auf den Straßen reduzieren. Mit jedem weiteren ADAS-System kommen die Automobilentwickler der Vision vom unfallfreien Fahren wieder einen Schritt näher. Doch der Weg dorthin ist tatsächlich so schwierig, wie man denkt.

Das gilt erst recht für das autonome Fahren. Mithilfe agiler Entwicklungsmethoden haben die Ingenieure hier inzwischen große Fortschritte bei der Entwicklung gemacht – sind aber noch weit davon entfernt, alle technischen Anforderungen zu beherrschen. Immerhin: In Pilotprojekten auf öffentlichen Straßen unter bekannten und eingeschränkten Bedingungen zeigen selbstfahrende Fahrzeuge bei niedrigen Geschwindigkeiten eine wirtschaftliche und sichere Fahrweise. Im Gegensatz zu Fahrerassistenzsystemen mit ihren präzise definierten Aufgaben muss ein autonomes Fahrzeug aber in der Lage sein, alle Fahrsituationen zu beherrschen und den Fahrer vollständig zu ersetzen. Hinzu kommt, dass die kritischen Bedingungen für ADAS und autonomes Fahren nicht unbedingt die gleichen wie für menschliche Fahrer und noch nicht vollständig verstanden sind.

Das autonome Fahren erfordert darum noch umfangreiche Tests. Die Wissenschaftler der US-Denkfabrik RAND Corporation gehen beispielsweise davon aus, dass vollautonom fahrende Fahrzeuge Hunderte von Millionen und manchmal Hunderte von Milliarden Meilen gefahren werden müssten, um die einzelnen Systeme und deren Zusammenspiel belastbar zu prüfen. So seien rund elf Milliarden Meilen nötig, um die Gefahr eines tödlichen Unfalls durch ein autonomes Fahrzeug um 20 Prozent gegenüber einem menschlichen Fahrer zu verringern. Wären dazu 100 Versuchsfahrzeuge 24 Stunden am Tag und sieben Tage die Woche im Einsatz, würden die Versuchsfahrten bei einer Durchschnittsgeschwindigkeit von 40 Kilometern pro Stunde rund 500 Jahre und bei einer Durchschnittsgeschwindigkeit von 80 Kilometern pro Stunde etwa 250 Jahre dauern – Zeiträume und Kosten, die mit der Produktentwicklung unvereinbar sind.

Bereits für das Testen einer teilautonomen Fahrfunktion müssten über mehrere Jahre hinweg Heerscharen von Ingenieuren die Systeme auf der Straße erproben, um jedes mögliche Ereignis abzusichern. Dass dies weder wirtschaftlich vertretbar noch praktisch möglich und außerdem für die anderen Verkehrsteilnehmer extrem gefährlich wäre, weiß auch Frank Sayer. „Auf der Straße lässt sich das unmöglich durchführen“, erklärt der Leiter Virtuelle Fahrzeugentwicklung bei Porsche Engineering. Darum sollen viele Testkilometer durch Digitalisierung und umfangreiche Computersimulationen ins Labor verlagert werden – und zwar ins Porsche Engineering Virtual ADAS Testing Center (PEVATeC). Dort werden künftig virtuelle Welten erzeugt, die alle relevanten Situationen auf der Straße abdecken und damit als Testfälle für die Algorithmen und Sensoren der Fahrerassistenzsysteme dienen.

Kritische Situationen reproduzieren

Die Testfahrten in einer simulierten Umgebung sind nicht nur kostengünstiger, zeitsparender und mit geringerem Organisationsaufwand möglich – es lassen sich auch kritische Situationen aus dem realen Straßenverkehr während der virtuellen Probefahrten nach Bedarf reproduzieren und abwandeln. Und es ist möglich, neue kritische Szenarien zu entdecken, die vom menschlichen Fahrer noch nicht verstanden wurden, aber für die Kombination von Sensor-Algorithmus und autonomem Fahren entscheidend sind.

Neben der harten Echtzeitfähigkeit der Simulationen ist es mindestens ebenso wichtig, dass die im Computer erzeugten virtuellen Realitäten physikalisch realistische Effekte produzieren. Die digital nachgebildeten Objekte wie Straßen, Gehwege, Häuserwände und Fahrzeuge müssen exakt jene Eigenschaften aufweisen, wie sie auch im realen Straßenverkehr vorkommen – nur dann können sie den Kamera-, Lidar-, Radar- und Ultraschallsystemen einen realistischen Input liefern. Das Zauberwort heißt „Physically Based Rendering“: Beim herkömmlichen Rendern eines Objektes werden Eigenschaften wie die Oberflächenstruktur, der Farbverlauf oder die Lichtquellen möglichst ressourcenschonend und vereinfachend berechnet. Das physikalisch basierte Rendern ist hingegen eine bewährte Methode, um Lichtreflexion und -refraktion an dreidimensionalen Objekten realitätsnah abzubilden. Hier gilt es vor allem, physikalisch korrekte Verteilungsmuster des Lichts darzustellen.

Um die Unterschiede der Szenarien zwischen realem und virtuellem Fahrversuch zu minimieren, arbeiten die Ingenieure bei PEVATeC mit Hochdruck an einer möglichst genauen physikalischen Materialdefinition und an Algorithmen, die das Licht möglichst wie in der realen Welt wiedergeben. Das ist wichtig, um die Fahrerassistenzsysteme gegen situative Fehleinschätzungen wie etwa durch verschmutzte Kameraobjektive oder Mehrfachreflexionen der Radarwellen abzusichern. Aus diesem Grund lassen sich auf Knopfdruck zum Beispiel die Auswirkungen von Wetterbedingungen und Lichteffekten auf die kamerabasierten Sensoren in einem Fahrzeug darstellen. „Dazu gehören auch die Effekte einer tief stehenden Sonne, einer nassen und spiegelnden sowie einer verschneiten Fahrbahnoberfläche“, erklärt Sayer.

Dynamische Objekte einbinden

Darüber hinaus kann selbst der Straßenbelag mit all seinen Unebenheiten künftig genauso realistisch berechnet werden wie die Folgen einer verschmutzten Kameralinse. Auch solche Tests bei unterschiedlichen Umweltsituationen lassen sich auf realen Straßen nur schwer durchführen. Darüber hinaus stehen den Entwicklern zahlreiche virtuelle Objekte wie Bäume und Alltagsgegenstände zur Verfügung, um das Straßenumfeld so realistisch wie möglich zu gestalten. Denn schließlich müssen autonom fahrende Fahrzeuge mögliche Risiken auch innerhalb eines unübersichtlich gestalteten Straßenverlaufs erkennen. Dazu gehört auch, dass sich dynamische Objekte in die Simulation einbinden lassen. Gemeint sind damit Menschen, Radfahrer und andere Verkehrsteilnehmer, die sich in der digitalen 3D-Welt so natürlich wie möglich bewegen sollen.

Werden nun die einzelnen Szenarien im realen und virtuellen Fahrversuch miteinander abgeglichen, sind zum einen Aussagen zur Genauigkeit der Gesamtsimulation möglich. Zum anderen entsteht eine immer exaktere Basis, um die Sensorsysteme im Fahrzeug per Simulation zu optimieren – beispielsweise indem unterschiedliche Einbauorte eines Ultraschallsensors im Fahrzeug virtuell erprobt werden. So gelingt das schnelle Validieren und Kalibrieren der optischen und radarbasierten Sensoren. Um die Ergebnisse später in die Simulation des Gesamtfahrzeugs einbinden zu können, stehen allen am Entwicklungsprozess beteiligten Abteilungen Datenschnittstellen etwa zu Simulink, ROS oder OpenDRIVE offen.

Ein weiterer wesentlicher Aufgabenbereich von PEVATeC ist das Klassifizieren von Objekten. Die Sensorintelligenz muss so programmiert werden, dass sie selbst unter schwierigsten Bedingungen Verkehrszeichen, Personen und Situationen erkennt. Dazu ist ein Training der Bilderkennungssoftware erforderlich. Dies geschieht unter anderem mit realen Bilddaten, die mit denen der Simulationen kombiniert werden. Darüber hinaus nutzen die Entwickler Verfahren der Künstlichen Intelligenz: Dazu werden dem System unzählige Variationen von Bildern oder Videosequenzen gezeigt, sodass es mithilfe des maschinellen Lernens darauf trainiert wird, Objekte und Situationen korrekt einzuordnen. Diesen Labeling-Prozess führen Hochleistungsrechner automatisiert durch: Im virtuellen Szenario sind alle Objekte bekannt und in der Game Engine positioniert. So lassen sich die Objekte im Bild automatisch identifizieren, dimensionieren und charakterisieren.

ADAS-Testcenter: Infrastruktur eines Hochleistungsrechenzentrums

Weil beim virtuellen Testen, Trainieren und Absichern neuer Fahrzeugfunktionen immense Datenmengen in Echtzeit verarbeitet werden müssen, wird die künftige Infrastruktur des ADAS-Testcenters der eines Hochleistungsrechenzentrums ähneln, in dem eine beachtliche Anzahl von Grafikchips (GPUs) benötigt wird, um die enorme Menge an Informationen zu verarbeiten. Die leistungsstarken GPUs eignen sich für Anwendungen rund um das automatisierte Fahren besonders gut, weil mathematische Operationen in ihnen parallel ablaufen. Sie sind deshalb auch ein wesentlicher Teil des PEVATeC-Konzepts. Hinzu kommen umfangreiche Speicher für einen Pool von Szenarien, die zum Testen und Validieren verschiedener ADAS-Systeme erforderlich sind. Das Ermitteln valider Daten ist eine wesentliche Voraussetzung für die Entwicklung von Algorithmen, die das autonome Fahren effizient und sicher auf die Straße bringen. Genau das soll PEVATeC leisten: Die Erkenntnisse aus den Simulationen dienen den Ingenieuren dazu, die Regelalgorithmen der Fahrerassistenzsysteme optimal zu trainieren – und zwar so, dass die verbauten ADAS-Systeme selbstständig die schwierigsten Manöver und Situationen beherrschen.

Zusammengefasst

Für den Test fortschrittlicher Fahrerassistenzsysteme und autonomer Fahrfunktionen sind Milliarden von Testkilometern erforderlich. Allein durch Straßenerprobungen lässt sich das nicht bewältigen. Darum hat Porsche Engineering PEVATeC entwickelt. Dabei erzeugt ein auf 3D-Simulationen spezialisiertes Computersystem synthetische Daten, die als Input für die Fahrzeugsensoren dienen. Sie sind so realistisch, dass man sie nicht von der Wirklichkeit unterscheiden kann. So lassen sich viele Tests von der realen in die virtuelle Welt verlagern.

* Text erstmalig erschienen im Porsche Engineering Magazin

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46358781)