Ein Angebot von /

Woher das autonome Auto weiß, wo es ist und wohin es sich bewegt

| Autor / Redakteur: Sebastian Ohl und Henning Sahlbach * / Thomas Kuther

Grundvoraussetzung für autonomes Fahren: den Systemen des Fahrzeugs müssen Informationen über dessen aktuelle Position bekannt sein.
Grundvoraussetzung für autonomes Fahren: den Systemen des Fahrzeugs müssen Informationen über dessen aktuelle Position bekannt sein. (Bild: Elektrobit)

Für automatisiertes oder autonomes Fahren müssen den Systemen des Fahrzeugs Informationen über dessen aktuelle Position bekannt sein. Die Aufgabe klingt zunächst trivial. Bei näherer Betrachtung zeigt sich jedoch ihre Komplexität.

Automatisiertes und autonomes Fahren erhöht die Komplexität im Fahrzeug enorm. Der Grund hierfür liegt in der Notwendigkeit, eine Vielzahl unterschiedlicher Komponenten zu koordinieren und zu kombinieren. Ein gutes Beispiel für diese Komplexität ist die Ermittlung und Verteilung von Positionsinformationen. Dieser Artikel beschreibt die Herausforderungen und grundlegende Konzepte für deren Bewältigung. Darüber hinaus zeigt er Beispiele zur praktischen Umsetzung.

Für automatisiertes oder autonomes Fahren müssen den Systemen des Fahrzeugs Informationen über dessen aktuelle Position bekannt sein. Die Aufgabe klingt zunächst trivial. Bei näherer Betrachtung zeigt sich jedoch ihre Komplexität.

Ein klassisches Navigationssystem liefert die absolute GPS-Position des Fahrzeugs in einem globalen Koordinatensystem wie dem geodätischen Referenzsystem WGS84. Dies eignet sich für Navigationsanwendungen zur Bestimmung der aktuellen Fahrzeugposition in einer Kartendatenbank, für Aufgaben wie Routenführung oder zur Erzeugung eines elektronischen Horizonts. Letzterer leitet die Informationen über den weiteren Streckenverlauf an vorausschauende Fahrerassistenzfunktionen weiter.

Viele Anwendungen im Rahmen des automatisierten bzw. autonomen Fahrens benötigen jedoch zusätzliche Informationen über Position und Bewegung des Fahrzeugs. Diese Informationen sind normalerweise die Fusion der Signale verschiedener Sensorsysteme: jener, die die Bewegung des Fahrzeugs wahrnehmen und jener, die die Fahrzeugumgebung über Lokalisierungssensoren wie GPS erfassen. Anschließend müssen die Positionierungsinformationen auf viele Steuergeräte und Softwaremodule verteilt werden, damit alle Komponenten ihre jeweiligen Aufgaben erfüllen können. Dennoch benötigen nicht alle Module in einem System für das automatisierte bzw. autonome Fahren dieselbe Art von Eigenbewegungs- oder Positionierungsinformationen in derselben Geschwindigkeit beziehungsweise Qualität. Zudem ist die Art der erforderlichen Daten stark abhängig von der auszuführenden Funktion. So ist – neben der spurgenauen globalen Position – eine gleichmäßige Trajektorie unerlässlich für einen sicheren Spurwechsel und weitere automatisierte Fahrmanöver auf Straßen oder Autobahnen. Eine Anwendung für automatisiertes Valet-Parken erfordert hingegen die subdezimetergenaue absolute Position, um den richtigen Parkplatz zu finden. Darüber hinaus profitieren auch viele andere Applikationen wie eCall oder Vehicle-to-Everything-Anwendungen (V2X) von genauen Positionierungsdaten.

Ein genauerer Blick auf Sensoren und ihre Fähigkeiten

Der SensePlanAct-Ansatz ist die Grundlage der meisten modernen Architekturen für das automatisierte Fahren. Er besteht aus den eigentlichen Sensorsystemen und deren Signalfusion, einem Entscheidungsmodul, das ein Systemziel verfolgt sowie Aktuatoren zur Durchführung der Entscheidung (siehe Bild 1).

Der Sense-Teil des Ansatzes nutzt verschiedenste Sensoren zur Lokalisierung. Diese lassen sich grob in drei Kategorien einteilen:

  • Lokalisierungssensoren: Liefern Informationen über die absolute Position in einem globalen Koordinatensystem. Musterbeispiele sind GNSS-Sensoren (Global Navigation Satellite System), wobei das GPS am bekanntesten ist.
  • Exterozeptive Sensoren: Nutzen die Umgebung des Fahrzeugs, beispielsweise zur Messung seiner Bewegung in Relation zu erkannten Merkmalen. Kameras, Radar- oder Lidar-Geräte sind Beispiele für derartige Sensoren.
  • Interozeptive Sensoren: Da diese Sensoren die Bewegung des Fahrzeugs aus seinem Inneren messen, benötigen sie im Gegensatz zu den beiden anderen Sensorkategorien keine Umgebungsinformationen. Beispiele für diese Art von Sensoren sind Gyroskope, Beschleunigungsmesser oder Hodometer.

Alle drei Sensorkategorien unterstützen die Berechnung von Positions- und Eigenbewegungsinformationen für das automatisierte bzw. autonome Fahren. Diese Informationen vereinfachen viele Algorithmen in den Wahrnehmungs- und Entscheidungsmodulen. Jedoch kann kein einzelner Sensor eine hochpräzise, sichere Positionsangabe mit einer Frequenz bereitstellen, die hoch genug ist, um die Entscheidungs- und Umgebungswahrnehmung des Systems zu unterstützen. Braucht ein System eine globale Position, um sich innerhalb eines globalen Rahmens in Relation zu anderen Fahrzeugen zu setzen oder zum Abgleich mit globalen Kartendaten, werden die Dinge noch komplizierter. Eine Softwarekomponente, die – basierend auf verschiedenen Sensoreingaben – eine hochgenaue, sichere Positionsangabe liefert, ist deshalb entscheidend, um die Anforderungen automatisierter bzw. autonomer Fahranwendungen zu erfüllen.

Globale vs. lokale Position

Die kurzzeitige relative Bewegung des Fahrzeugs kann bereits über interozeptive Sensoren berechnet werden. Die Daten der interozeptiven Sensoren können auch für die Bereitstellung einer lokalen Position verwendet werden, die unabhängig von der Verfügbarkeit der Sensordaten aus den beiden anderen Sensorkategorien ist.

Positionsdaten eines lokalen Koordinatensystems haben den Vorteil, dass sie eine gleichmäßige Bewegung relativ genau beschreiben, wobei die typischen Korrektursprünge eingehender GNSS-Sensormesswerte entfallen. Darüber hinaus stehen die Daten direkt beim Start zur Verfügung und es muss beispielsweise nicht auf ein GNSS-Fix gewartet werden. Vielmehr ist die Angabe der lokalen Position sogar ohne Eingaben von GNSS- oder Lokalisierungssensordaten verfügbar. Tabelle 1 bietet einen Überblick über die in einem lokalen Koordinatensystem verfügbaren Positionsdaten.

Alle beschriebenen lokalen Positionsdaten enthalten normalerweise geschätzte Genauigkeitsinformationen. Im Gegensatz dazu erfordern manche Anwendungen absolute, globale Positionierungsinformationen. In diesem Fall wird die Position auf ein globales Koordinatensystem bezogen. Die lokale Position verändert sich mit der Integration der Sensormesswerte inhärent im Laufe der Zeit. Demgegenüber hat die globale Position den Vorteil, dass sie ständig durch die Lokalisierungssensoren korrigiert wird. Tabelle 2 zeigt die Positionierungsdaten, die normalerweise im globalen Koordinatensystem verfügbar sind. Auch hier können die beschriebenen globalen Positionsdaten geschätzte Genauigkeitsinformationen enthalten.

Außerdem können die Positionierungsdaten auf andere Koordinatensysteme bezogen sein, die für andere Zwecke eingesetzt werden. Der folgende Abschnitt erläutert drei wichtige Begriffe:

  • Weltkoordinatensystem (WKS): Lobale Positionierungsdaten beziehen sich typischerweise auf ein WKS. Der Anfangspunkt kann sich je nach verwendetem Bezugssystem sehr stark unterscheiden. Beim WGS84 liegt dieser Punkt westlich von Afrika im Atlantischen Ozean. Dagegen hat jede UTM-Zone ihren eigenen Ursprung für UTM-Koordinaten. Im UTM-System zeigt die x-Achse nach Osten und die xy-Ebene steht senkrecht zur Schwerkraft.
  • Fahrzeugkoordinatensystem (FKS): Die lokale Positionierung muss auf einem selbstdefinierten Ursprung basieren, der in Bezug auf das Fahrzeug fixiert werden kann. Beispielsweise wird die Mitte der Hinterachse auf die Straßenebene entlang der Schwerkraft projiziert. Dieses Fahrzeugkoordinatensystem (FKS) ordnet die xy-Ebene senkrecht zur Schwerkraft und die x-Achse entlang der eigenen Sichtlinie an.
  • Lokales Koordinatensystem (LKS): Ein LKS definiert seinen Ursprung als feste Position auf dem Boden ohne Bezug zu einem WKS. Der Ursprung ist beispielsweise die Position beim Systemstart.

Winkel können als Eulerwinkel angegeben und Drehungen über die intrinsische Tait-Bryan-Drehkonvention Z Y’ X′′ ausgedrückt werden. Alle Koordinatensysteme für Geschwindigkeiten und Beschleunigungen bewegen sich nicht relativ zur Erdoberfläche. Beispielsweise bewegt sich das FKS bei einem bestimmten Zeitstempel nicht mit dem Fahrzeug, sondern bleibt an der Position, die das Fahrzeug bei diesem Zeitstempel innehat. So werden aus den Daten schließlich die Geschwindigkeits- und Beschleunigungswerten errechnet.

Anwendung von Lokalisierungsprinzipien in typischen Softwareumgebungen

Sieht man sich typische Softwarelösungen für Umgebungsmodelle und das automatisierte Fahren genauer an, zeigt sich, wie die Positionierungsdaten mit verschiedenen Komponenten und Anwendungen interagieren.

Zuerst werden die Sensordaten in abstrakte Datenstrukturen umgewandelt, um die nachfolgenden Schichten unabhängig vom einzelnen Sensortyp zu machen. Diese Sensordaten werden anschließend auf der folgenden Fusionsebene von verschiedenen Modulen verarbeitet. Diese Schicht besteht beispielsweise aus einem Modul zur Fusion von Objekthypothesen, einem Grid-Fusion-Modul oder einem Modul für hochpräzise Positionierung. Die Ergebnisse des Sensordatenfusionsprozesses können dann in funktionsspezifischen Ansichten dargestellt werden. Diese Ansichten fassen die fusionierten Sensordaten zusammen, um eine Spezialansicht für die folgenden Funktionen zu bieten. Eine Notbremsfunktion beispielsweise benötigt die Objekthypothesen unmittelbar nach der Ersterkennung (z.B. Bremsen vorspannen). Dagegen erfordern Abstandsregeltempomaten unter Umständen stabilere Objekthypothesen, da eine sehr schnelle Reaktion hier nicht ganz so wichtig ist. Ein weiterer Vorteil verschiedener Ansichten liegt in der Fähigkeit, die Datenmenge an verschiedene Systemarchitekturen anzupassen, in denen die Kommunikationsbusse möglicherweise unterschiedlich leistungsstark sind.

Der zentrale Teil typischer Softwarearchitekturen stellt die automatisierten Fahrfunktionen bereit. Er unterteilt das Gesamtsystem in viele kleinere Funktionen, die für jeweils eine Spezialsituation vorgesehen sind. Damit können sich Entwickler auf eine bestimmte Aufgabe konzentrieren. Darüber hinaus lässt sich das System im Laufe der Zeit stetig verbessern, indem die ursprünglichen Funktionen um weitere ergänzt werden. Aufgrund der Verwendung mehrerer Fahrzeugsteuerfunktionen muss dieser Zugriff gemindert werden. Dies wird durch eine situationsabhängige Verhaltensentscheidung erreicht. Sie sammelt die Anforderungen aller Funktionen zur Fahrzeugsteuerung und legt fest, welches Verhalten bzw. welche Verhaltensweisen auf die Aktuatoren zugreifen können. Im Anschluss werden diese Befehle von den Komponenten der Bewegungsmanagement- bzw. HMI-Managementebene ausgeführt. In diesen Schichten verwendet das System zur Ausführung der angeforderten Befehle fahrzeugunabhängige Steuer- und Optimierungsalgorithmen. Danach wandelt die Abstraktionsebene die fahrzeugunabhängigen Befehle in fahrzeug- oder aktuatorenspezifische Befehle um (Bild 1 rechts).

Sensorkalibrierung

Lokalisierungsdaten werden normalerweise von einer dedizierten Positionierungskomponente in der Softwarearchitektur bereitgestellt. Die Sensorkalibrierung zählt zu den ersten Schritten, die eine solche Komponente ausführt. Dieser Vorgang ist aus folgendem Grund notwendig: Obwohl interozeptive Sensoren auf bestimmte physikalische Größen reagieren, wird ihre Antwort meist nicht als Wert in physikalischen Einheiten gemeldet. Bevor die Daten also zur Positionsbestimmung herangezogen werden können, sind mathematische Transformationen erforderlich. Die verwendeten Sensoren wurden für diesen Zweck kalibriert. Die meisten Sensoren besitzen zwei wesentliche Parameter, die die Beziehung zwischen dem Sensormesswert und seinem Wert in den entsprechenden physikalischen Einheiten beschreiben:

  • Scale beschreibt die Änderung des Sensormesswerts, wenn sich der gemessene physikalische Wert um eine Einheit ändert.
  • Bias beschreibt den Sensormesswert, wenn der Wert der gemessenen physikalischen Einheit null ist.

Diese Parameter bleiben nicht konstant – weder kurzfristig (d.h. sie sind häufig temperaturabhängig) noch während des Lebenszyklus des Sensors. Der integrative Charakter des Fusionsprozesses bedeutet zusätzlich, dass kleine Abweichungen in den beiden Parametern große Fehler bei der fusionierten Ausgabe zur Folge haben. Für Hochpräzisionsanwendungen müssen deshalb alle Sensorkalibrierungsparameter sorgfältig ermittelt und bei laufendem System kontinuierlich aktualisiert werden.

In der Positionierungskomponente werden die Sensorrohmesswerte in eine Sensorkalibrierungskomponente eingegeben. Diese kalkuliert die Sensorkalibrierungsparameter und gibt kalibrierte Sensormesswerte aus. Diese Messwerte wiederum werden in eigene Komponenten zur Bestimmung der lokalen und globalen Position eingespeist.

Genauigkeitsbewertung

Die Genauigkeit der Ausgabe der ermittelten Position ist ein wichtiger Faktor, der die Qualität und Zuverlässigkeit einer Positionierungskomponente gewährleistet. Sie bezeichnet in diesem Zusammenhang die beobachtete Gesamtabweichung der ausgegebenen ermittelten Position von der tatsächlichen Position. Die Abweichungen können viele Ursachen haben. Manche sind systematisch, andere probabilistischen Ursprungs. Außerdem weist jeder Sensor Beeinträchtigungen bezüglich der Messgenauigkeit auf. Diese reichen von Messrauschen über einen nicht optimalen Maßstab bis hin zu verzerrten Werten, Querempfindlichkeit, nicht-linearen Skaleneffekten etc. Die Messungen (vor allem GNSS-Eingaben) können von Fehlerzuständen betroffen sein, die schwer zu erkennen sind, wie beispielsweise Mehrwegeffekte. Abtastraten und Kommunikations- oder Messverzögerungen sind weitere für die Positioniergenauigkeit entscheidende Faktoren.

Neben den Sensormessungen sorgt auch die Fusion selbst für Abweichungen in der Ausgabe. Das liegt daran, dass das Bewegungsmodell immer ideal beschrieben wird, es aber offensichtlich Unterschiede zwischen dem Modell und der realen Fahrzeugbewegung gibt. Diese Situation führt zu manöverabhängigen Rückwirkungen bei der Genauigkeit der fusionierten Ausgabe. Analytische Ansätze zur Vorhersage der erwarteten Genauigkeit der Positionierungskomponente sind nicht aussagekräftig. Grund hierfür ist die Vielzahl von Annahmen, die in Bezug auf Sensoren und anstehende Fahrmanöver getroffen werden müssen. Eine bessere Lösung besteht darin, die Genauigkeit empirisch zu ermitteln. So kann beispielsweise ein Bezugssystem mit hochwertigen Sensoren eingesetzt werden, um die tatsächliche Position mit hoher Genauigkeit bereitzustellen.

Die ermittelte Position kann dann mit der entsprechenden Referenz verglichen und die Abweichungen in mehreren Statistikansichten zusammengefasst werden. Die Genauigkeit des gesamten Systems lässt sich jedoch nicht durch eine einzige Zahl ausdrücken. Neben dem absoluten Positionsfehler müssen noch weitere Aspekte bewertet werden. Dazu gehören Gierwinkel, Fahrzeugbewegung und Längs- bzw. Seitenfehler. Die Statistikansichten enthalten Ergebnisse für bestimmte Fahrmanöver wie Bremsen oder Kurvenfahren, da diese Sondersituationen Gegenstand einiger Anwendungen sind.

Schnittstellen und Datenstrukturen zur Positionierung und Beschreibung der Eigenbewegung mit praktischen Anwendungsfällen

Die Autoren dieses Beitrags arbeiten täglich an Elektrobits Softwareproduktlinie EB robinos. Um die praktische Implementierung der beschriebenen Konzepte in Schnittstellen und Datenstrukturen zu zeigen, wird daher dieses Produkt im Folgenden als Beispiel verwendet.

In den vergangenen Jahren wurden in der Branche verschiedene Schnittstellen zur Beschreibung der Eigenbewegung und Positionierung eingesetzt. Aus diesen Erfahrungen lassen sich vier Lokalisierungs- und Eigenbewegungsschnittstellen ableiten, die alle Anwendungsfälle unterstützen, die für das automatisierte Fahren relevant sind. Die vier Schnittstellen liefern eine Beschreibung der Eigenbewegung, die relative lokale Positionierung und die globale Positionierung in einer hohen Geschwindigkeit, die die Anforderungen verschiedener Qualitäts- und Sicherheitsstufen erfüllt. Dies basiert auf interozeptiven und exterozeptiven Sensoren sowie globalen Positionierungssensoren.

Die Datenstruktur zur Beschreibung einer globalen Position umfasst folgende Parameter: UTM-Koordinate auf der Ost-West-Achse, UTM-Koordinate auf der Nord-Süd-Achse, Höhe und Drehung des Fahrzeugs um die x-, y- und z-Achse senkrecht zur Schwerkraft. Die Varianzen der x-, y- und z-Position sowie der Roll-Nick-Gier-Werte sind ebenfalls enthalten.

Die Datenstruktur zur Beschreibung einer lokalen Position enthält folgende Parameter: Position der x- und y-Achse bezogen auf den Startpunkt des Fahrzeugs, Position der z-Achse bezogen auf die Fahrbahnoberfläche, Drehung der x- und y-Achse bezogen auf die Fahrbahnoberfläche, Drehung der z-Achse bezogen auf die anfängliche Fahrtrichtung. Die Datenstruktur beinhaltet außerdem Varianzen der x-, y- und z-Position sowie der Roll-Nick-Gier-Werte.

Über die Datenstruktur Deltaposition lässt sich die aktuelle Position bezogen auf die lokalen Koordinaten zum Startzeitpunkt ableiten. Sie enthält die Deltas für die x-, y- und z-Achse bezogen auf das FKS des Startzeitstempels sowie die Deltadrehung um die z-Achse relativ zur Schwerkraft. Auch diese Datenstruktur beinhaltet die Varianzen der Deltas für die x-, y- und z-Achse sowie den Gierwert.

Schließlich umfasst die Datenstruktur Fahrzeugdynamik folgende Parameter: Geschwindigkeit senkrecht zur Schwerkraft und Rotationsgeschwindigkeit, Geschwindigkeits- und Rotationsgeschwindigkeitsvarianzen, Beschleunigung und Rotationsbeschleunigung sowie Beschleunigungs- und Rotationsbeschleunigungsvarianzen.

Die vier obigen Datenstrukturen werden normalerweise zu einer großen Struktur zusammengefasst. Dies führt zu enormen Datenübertragungsraten zwischen den einzelnen Komponenten. Da die Werte häufig von unterschiedlichen Sensoren stammen, lassen sich nicht alle Datenfelder gleichzeitig aktualisieren. Das Ergebnis sind veraltete Daten oder eine Mischung aus prädizierten und gemessenen Daten. Diese hochwertigen Informationen können natürlich auch in die Datenstruktur aufgenommen werden, was allerdings die Struktur weiter vergrößern würde.

Die vier beschriebenen Datenstrukturen können von verschiedenen Komponenten genutzt werden:

  • Die globale Position wird immer dann verwendet, wenn sich das Fahrzeug zu einem anderen Element in einem WKS in Beziehung setzen muss. Das offensichtlichste Beispiel ist der Standort des Fahrzeugs auf einer Karte. Die globale Position ist jedoch auch für V2X-Anwendungsfälle erforderlich.
  • Die lokale Position richtet sich an Komponenten, die zwar kurzfristige Trackinginformationen, nicht aber die tatsächliche Position bezogen auf ein globales Koordinatensystem benötigen. Ein typischer Anwendungsfall ist die Bestimmung der relativen Trajektorie.
  • Deltaposition: Für Trajektorien-Controller ist häufig nur die Deltaposition relevant. Sie müssen die Stellgröße korrigieren – auf Grundlage der seit dem letzten Controllerschritt aufgelaufenen Fehler. Für solche Anwendungsfälle kann die Deltaposition einen glatten und höchst zuverlässigen Messwert bieten.
  • Die Fahrzeugdynamik beschreibt nur die Relativbewegung. Damit ist sie nicht von einem globalen Koordinatensystem abhängig. Die Komponenten extrahieren die Informationen aus den Positionsinformationen in eine eigene Datenstruktur. So kann jede Komponente entscheiden, ob sie diese Informationen für ihre Funktion benötigt.

Zusammenfassung

Typische Softwareplattformen für das automatisierte Fahren erfordern die Eingabe der globalen und lokalen Position. Die entsprechenden Werte müssen sie den verschiedenen Anwendungsarten in Form von angepassten Datenstrukturen liefern. Konzepte wie Sensorkalibrierung und Genauigkeitsbewertung stellen die Zuverlässigkeit der Positionierungsdaten sicher. Darüber hinaus kann durch die Trennung von Sensorkalibrierung und Positionsbestimmung eine besonders gleichmäßige lokale Ausgangstrajektorie bereitgestellt werden. Idealerweise lässt sich schließlich die Positioniergenauigkeit durch den Vergleich der erzeugten Ausgaben mit einem hochgenauen Bezugspositioniersystem empirisch messen und überwachen.

Fahrerassistenzsysteme und Fahrzeugumfeldsensorik im Härtetest

Fahrerassistenzsysteme und Fahrzeugumfeldsensorik im Härtetest

22.05.19 - Ein weltweiter Fahrversuch zum Testen von Fahrerassistenzsystemen und Fahrzeugumfeldsensorik führte 25 Fahrzeuge der ASAP Group auf 3000 Routen durch über 60 Länder. lesen

Sensorik und Software sorgen für einen umfassenden Vorausblick auf der Autobahn

Sensorik und Software sorgen für einen umfassenden Vorausblick auf der Autobahn

05.12.17 - In einem Forschungsprojekt soll dem Autofahrer oder hochautomatisierten Fahrzeugen ein umfassender Vorausblick auf die Straße gegeben werden. Eine Software bildet reale Verkehrssituationen und Objekte in Echtzeit dar. lesen

Mein Traum von der individuellen Mobilität der Zukunft

Mein Traum von der individuellen Mobilität der Zukunft

09.05.19 - Heute Nacht hatte ich einen Traum – von einem Mobilitätskonzept, von dem man wirklich nur träumen kann. lesen

* Sebastian Ohl ist Leiter des Technologiezentrums für Umweltwahrnehmung in der Produktgruppe Highly Automated Driving bei Elektrobit.

* Henning Sahlbach ist Systemarchitekt der Produktfamilie Robinos, die in der Produktgruppe Highly Automated Driving bei Elektrobit entwickelt wurde.

Kommentar zu diesem Artikel abgeben
Mit dem Artikel mag geklärt sein, dass die Elektronik weiß, wo sich das Auto befindet und wo es...  lesen
posted am 11.07.2019 um 12:48 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45952465 / ADAS & Autonomous)