Suchen

Grundlagen des Autonomen Fahrens – Teil 3

| Autor/ Redakteur: Mark Patrick / Benjamin Kirchbeck

Im dritten Teil der Serie "Die Grundlagen des Autonomen Fahrens" rücken die wesentlichen Technologien für selbstfahrende Fahrzeuge in den Mittelpunkt. Im ersten Schritt werfen wir einen Blick auf die Sensortechnologien.

Firmen zum Thema

(Bild: ©temp-64GTX - stock.adobe.com)

Wenn autonome Fahrzeuge uns im Alltag wirklich eine Hilfe sein sollen – insbesondere im Hinblick auf die Senkung der Zahl an Verkehrsunfällen –, müssen sie die Verkehrssituation jederzeit genau im Blick haben. Dafür benötigen sie eine lückenlose Kenntnis ihrer Umgebung – quasi eine 360°-Ansicht aller Einflussfaktoren auf ihr Fahrverhalten.

Dieses Ziel kann nur durch die Integration einer Vielzahl an Sensormechanismen erreicht werden. Einige von ihnen kommen bereits in heutigen Fahrassistenzsystemen zum Einsatz, andere befinden sich noch in der Entwicklung und werden speziell für selbstfahrende Autos konzipiert. Ohne diese Technik ist es kaum vorstellbar, dass Fahrzeugautonomie auf der Überholspur durchstartet, geschweige denn massentauglich wird. Die verschiedenen Stufen der Autonomie – von Autos, bei denen der Mensch die vollständige Kontrolle innehat, bis zum komplett autonomen Fahrzeug – wurden im zweiten Beitrag der Serie vorgestellt. Nun rückt die zugrundeliegenden Sensortechnologien in den Blickpunkt.

Die Sensormechanismen

Drei Schlüsseltechnologien verleihen autonomen Fahrzeugen „Sehvermögen“: LiDAR, Kameras und Radar. Aktuell befindet sich jede der Technologien in einem unterschiedlichen Entwicklungsstadium.

Am wenigsten kompliziert ist wohl das Radar, welches schon heute Bestandteil der Fahrzeugausstattung ist und dort Einzelsysteme wie den Abstandsregeltempomat unterstützt. Aber auch bei der Entwicklung autonomer Fahrzeuge spielt es eine wichtige Rolle, insbesondere in Szenarien mit niedriger Fahrgeschwindigkeit wie beim Einparken oder bei stockendem Verkehr. Aber auch bei höherem Tempo leistet die Technologie gute Dienste, beispielsweise beim Spurwechsel auf Autobahnen.

Die neuesten mmWave-Radarsysteme für Fahrzeuganwendungen nutzen den Mikrowellenlängenbereich, um die Reichweite, Geschwindigkeit und den relativen Winkel erkannter Objekte zu ermitteln. In der Regel arbeiten sie im 77-GHz-Frequenzband und sind in der Lage, auch kleinste Bewegungen zu entdecken.

Radar hat viele Vorteile: Es handelt sich um eine bewährte Technologie, die unabhängig von schwankenden Umgebungsbedingungen zuverlässig arbeitet. Die benötigte Hardware ist kompakt und vergleichsweise günstig, da sie bereits großflächig auf dem Markt etabliert ist. Sie hat jedoch auch einige inhärente Einschränkungen, insbesondere im Hinblick auf die Datenmenge, die damit erzeugt werden kann. Deshalb müssen sich autonome Fahrzeuge auf eine Vielzahl verschiedener Sensoren verlassen und nicht nur auf einen einzigen, isolierten Mechanismus.

LiDAR ist eine Technologie, die in fast allen Entwicklungsprogrammen von Autoherstellern eine Rolle spielt. Als Ergänzung zu Fahrzeugradarsystemen kommt ihr eine enorme Bedeutung zu. Bei LiDAR werden gepulste Lichtwellen von einer Laserquelle ausgestrahlt und von Objekten in der Umgebung reflektiert. Anhand der Zeit, die ein Puls benötigt, um zum Sensor am Ausgangspunkt zurückzukehren, lässt sich die vom Signal zurückgelegte Entfernung berechnen. Der Prozess wird millionenfach pro Sekunde wiederholt, um in Echtzeit eine 3D-Karte der Umgebung zu erstellen. Diese gibt Aufschluss über die Gestalt und Maße von Fahrzeugen, die Verkehrsinfrastruktur sowie über Radfahrer und Fußgänger und erleichtert somit die Navigation auftretender Hindernisse. Ein zentraler Pluspunkt von LiDAR ist, dass die Technologie im Vergleich mit anderen Sensoroptionen eine „Vogelperspektive“ bietet.

Ford hat beispielsweise bereits kräftig in die Technologie investiert. Das Unternehmen setzt die LiDAR-Technologie HDL-64E von Velodyne bei Entwicklung und Test seiner autonomen Fahrzeuge ein. Die ersten Modelle, in denen die Technologie zum Tragen kommt, sind für 2021 geplant.

Beim HDL-64E handelt es sich um ein 64-Kanal-System mit einem horizontalen Sichtfeld von 360° sowie einem vertikalen Sichtfeld von 26,9°. Die Reichweite beträgt bis zu 120 Meter. Die Anzahl der unterstützten Kanäle ist entscheidend für die mögliche Fahrzeuggeschwindigkeit. Laut Velodyne könnte ein Auto, das mit einem 32-Kanal-System ausgestattet ist, nur bis zu einer Geschwindigkeit von 57 km/h autonom fahren; durch die Verdoppelung der Kanalzahl können jedoch weitaus höhere Geschwindigkeiten erreicht werden.

Eine der größten Hürden für LiDAR (und ein Grund, warum Branchengrößen wie Elon Musk die Technologie als verzichtbar einstufen) sind die damit verbundenen hohen Kosten. Aktuelle Systeme liegen preislich im mittleren fünfstelligen Bereich. Selbst bei sinkenden Stückpreisen wäre ihr Einsatz immer noch außerordentlich kostspielig.

Und die Kosten sind nicht das einzige Problem. LiDAR kann zwar die Umgebung eines Fahrzeugs abbilden, arbeitet aber nicht detailgenau genug, um beispielsweise Straßenschilder zu lesen. Für diese und viele andere Aufgaben der Bilderkennung und -klassifizierung benötigen autonome Fahrzeuge zusätzlich hochauflösende Kamerasysteme.

Durch die Ausstattung eines Fahrzeugs mit Front-, Seiten- und Rückkameras lässt sich beispielsweise eine 360°-Echtzeitansicht der Umgebung erzeugen. Dadurch können tote Winkel eliminiert, Tempolimits rechtzeitig erkannt und die Fahrspur zuverlässig gehalten werden. Die Anzahl der benötigten Kameras hängt vom Sichtfeld des Systems (das bis zu 120° betragen kann) und davon ab, ob „Fischaugen“-Kameras zum Einsatz kommen (mit Superweitwinkelobjektiv für Panoramaansichten).

Wie bei jeder Sensortechnologie müssen ihre Vorteile mit den gegebenen Einschränkungen abgewogen werden. Kamerasysteme liefern zwar ein hochauflösendes Bild der Umgebung, haben aber Probleme mit der Tiefen- und Abstandsmessung, und es müsste der Abstand zwischen Objekten berechnet werden, um die genaue Position eines erkannten Objekts zu bestimmen. Kameras fällt es zudem auch schwerer, Objekte bei schlechten Lichtverhältnissen zu identifizieren (beispielsweise bei Nebel oder nachts).

Ein weiterer Punkt, der vermehrt in den Fokus der Systementwickler rückt, ist der Einfluss von Sensorsystemen auf andere autonome Fahrzeuge. Besonders intensiv wurde in jüngster Vergangenheit darüber diskutiert, ob LiDAR den Betrieb von Digitalkameras beeinträchtigen könnte – das würde ein ernsthaftes (und potenziell lebensbedrohliches) Problem darstellen, wenn autonome Fahrzeuge aufeinandertreffen.

Abschließend lässt sich festhalten: Noch steht in den Sternen, welche Kombination von Sensoren genau in zukünftige autonome Fahrzeuge Eingang finden wird. Klar scheint, dass es sich um eine Mischung verschiedener Mechanismen handeln wird (wie Radar, Bildsensorik und LiDAR), damit deren jeweilige Vorteile gebündelt werden können. Aus der Kombination dieser Technologien resultiert eine große Bandbreite an Funktionalität und Redundanz, die auch dringend benötigt werden, damit selbstfahrende Autos im Straßenverkehr keine potenzielle Gefahr darstellen.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46214705)