Suchen

Objektidentifikation für Autonomes Fahren: Framework unterstützt Analyse neuronaler Netzwerke

| Redakteur: Benjamin Kirchbeck

Die Technik für Künstliche Intelligenz (KI) und Convolutional Neuronal Networks (CNN) schreitet voran und ermöglicht bereits die automatische Erkennung unterschiedlicher Objekte. Dennoch können fehlerhafte Klassifikationen nie völlig ausgeschlossen werden, weswegen die Zuverlässigkeit automatischer Prozesse bei der Bildverarbeitung weiterhin optimiert werden muss.

Firmen zum Thema

Einem menschlichen Fahrer fällt es leicht, Fußgänger zu erkennen. Beim Autonomen Fahren müssen die verwendeten CNNs jedoch umfangreich angelernt werden.
Einem menschlichen Fahrer fällt es leicht, Fußgänger zu erkennen. Beim Autonomen Fahren müssen die verwendeten CNNs jedoch umfangreich angelernt werden.
(Bild: Clipdealer)

In der Automobilindustrie wird auf der Suche nach besseren Fahrerassistenzsystemen (Advanced Driver Assistance System – kurz: ADAS) die Forschung stark vorangetrieben – etwa durch neue Hardware mit effizienteren und robusteren Sensoren oder durch leistungsfähigere Algorithmen. In diesem Zuge muss auch die Erkennungsrate bei der automatischen Bildverarbeitung stets bedacht werden. „Zentral für das Autonome Fahren ist, dass die Algorithmen für die Objekterkennung schnell arbeiten und eine minimale Fehlerquote aufweisen“, erklärt Václav Diviš, Senior Engineer ADAS & Autonomous Driving bei ARRK Engineering. „Aber erst wenn wir neuronale Netzwerke bis ins kleinste Detail verstanden haben, ist die Entwicklung von optimalen Sicherheitsmaßnahmen für das autonome Fahren realisierbar. Die allgemeinen Rahmenbedingungen dafür werden durch die ISO 26262 und ISO/PAS 21448 vorgegeben – besonders wichtig sind hier etwa einheitliche Entwicklungsprozesse und Evaluierungsmetriken.“

Um diesem Ziel ein Stück näher zu kommen, hat ARRK Engineering im Rahmen einer Forschungsarbeit ein Evaluierungs-Framework für maschinelles Lernen entwickelt. Dabei handelt es sich um eine Software, mit deren Hilfe ein tieferer Einblick in den Erkennungsprozess der neuronalen Netze ermöglicht wird. Darauf aufbauend können Algorithmen optimiert und die automatische Objekterkennung verbessert werden. Das Experiment diente auch insgesamt dem tieferen Verständnis der Wirkungsweise neuronaler Netzwerke.

Anlernen des neuronalen Netzes

In einem ersten Schritt wurde als Grundlage für das Framework eine zuverlässige GAN-Architektur (Generative Adversarial Networks) aus zwei neuronalen Netzwerken – einem Generator und einem Diskriminator – zur Ergänzung des Datensatzes ausgewählt. Der verwendete Datensatz bestand in dieser Phase zunächst aus etwas über 1.000 Bildern von Fußgängern. „Um den Datensatz zu erweitern, wurden mithilfe des GAN zusätzliche Bilder erzeugt“, erklärt Diviš. „Dafür erstellte der Generator des GAN aufgrund der bisherigen Daten ein Bild und der Diskriminator überprüfte dessen Qualität. Durch die Interaktion des neuronalen Netzwerks konnten wir die Merkmale des ursprünglichen Datensatzes extrahieren und den Datensatz ohne besonderen Aufwand erweitern.“ Als nächstes wurde das Klassifizierungsnetz trainiert und die Testergebnisse evaluiert. Um die bestmöglichen Ergebnisse zu erzielen, verwendete ARRK für alle Elemente dieses Experiments modernste Architekturen.

Ergänzendes zum Thema
Was sind die ISO 26262 und die ISO/PAS 21448?

Bei der ISO 26262 handelt es sich um eine Norm für die Automobilindustrie in Bezug auf die funktionale Sicherheit. Sie unterteilt die Maßnahmen zum potenziellen Risiko von Fahrzeugfunktionen in sogenannte „Automotive Safety Integrity Levels“ – kurz ASIL. Diese 5-stufige Skala (QM, A, B, C, D) definiert unterschiedliche Prozessanforderungen für die Entwicklung des Produkts: Bei ASIL QM ist eine „übliche Qualitätssicherung“ durch beispielsweise einen eingesetzten Entwicklungsprozess ausreichend, während bereits ab ASIL A zusätzliche Maßnahmen zur Risikominderung mithilfe von Überwachungsdiagnosen und Plausibilitätsfunktionen ergriffen werden müssen. Die ASIL D beschreibt das Produkt mit dem höchsten Risikopotenzial und damit mit den höchsten Sicherheitsanforderungen.

Die ISO/PAS 21448 enthält ergänzende Leitlinien für die Design-, Verifikations- und Validierungsmaßnahmen beim autonomen Fahren, die zur Erreichung der sogenannten Safety of the Intended Functionality (SOTIF) erforderlich sind. Dabei steht besonders die korrekte Wahrnehmung von komplexen Sensoren und den dazugehörigen Prozessalgorithmen im Vordergrund.

„Eine Herausforderung bei der automatischen Bildverarbeitung besteht in der Generalisierung des zu erkennenden Objekts. Die grundlegende Frage ist: Was definiert einen Fußgänger?“, so Diviš. „Dies stellt für uns Menschen kein Problem dar, denn wir können induktiv von Einzelfällen auf die Allgemeinheit schließen. Ein neuronales Netzwerk arbeitet allerdings deduktiv und braucht zahlreiche Beispiele, um auf ein konkretes Bild zu schließen.“ Besonders beobachtet werden müssen dabei auch sogenannte Corner Cases.

Dies sind Spezialfälle, in denen Fußgänger nicht erkannt werden – etwa aufgrund ungünstiger Lichtverhältnisse durch seltene Wetterbedingungen oder beispielsweise aufgrund ungewöhnlicher Körperhaltungen oder problematischer Verdeckungen im Bild. Zur Klassifikation dieser Ausnahmen fehlt üblicherweise passendes Bildmaterial im Datensatz. Aber mithilfe der zuvor errichteten GAN-Struktur gelang es ARRK, den Datensatz durch computergenerierte Bilder zu ergänzen und diese Probleme zu minimieren.

Optimierung von Prozessen zur Objekterkennung

Anschließend begann ARRK mit umfangreichen Tests, deren zentrales Ziel ein tieferes Verständnis der Prozesse hinter dem CNN-Training war. Besonders im Fokus standen hierbei das Filtern der Objektmerkmale und auch die Regions of Interest (RoI), die den untersuchten Bildbereich mit interessanten Merkmalen darstellen. Das Entstehen dieser Kernelgewichte und die daraus resultierenden RoI sind essenziell für optimierte Evaluierungsmetriken und somit die automatisierte Objekterkennung. Im Rahmen dieser Analysen untersuchten die Experten zahlreiche Prozesse, die in neuronalen Netzwerken auftreten und analysierten Ansätze, um den Informationsfluss der Neuronen zu optimieren.

„Manche Neuronen beteiligen sich stärker an der Identifikation von Fußgängern als andere – und sind treffsicherer“, erklärt Diviš. „Daher haben wir diverse Szenarien getestet, in denen wir gezielt einzelne Neuronen ausgeschaltet haben, um zu sehen, wie sie die Entscheidungsfindung beeinflussen. Dabei wurde bestätigt, dass nicht jedes Neuron zur Erkennung eines Fußgängers aktiviert werden muss und dies sogar zu einem schnelleren und besseren Ergebnis führen kann.“ Solche Veränderungen konnten mithilfe des entwickelten Frameworks analysiert werden.

Bildergalerie

Auf diese Weise lässt sich langfristig die Stabilität der Algorithmen erhöhen, was zu einer Verbesserung der Sicherheit des autonomen Fahrens führen wird. Es könnten beispielsweise Vorkehrungen ergriffen werden, um das Risiko durch eine sogenannte Adversary Attack zu reduzieren. Dabei handelt es sich um einen externen Angriff auf das neuronale Netz mit einem Schadcode, der sich als scheinbar neutrales Bild tarnt. Dieser Code erzeugt eine Störung und beeinflusst die Entscheidung der einzelnen Neuronen, sodass keine logisch korrekte Objekterkennung mehr möglich ist. Die Entfernung inaktiver Neuronen könnte die Auswirkungen von solchen externen Störfaktoren reduzieren, da das neuronale Netzwerk einen geringeren Angriffsraum bietet.

„Es wird uns aber nie möglich sein, eine absolut korrekte Objekterkennung zu garantieren“, resümiert Diviš. „Unser Ziel in der Automobilbranche muss darin bestehen, die Schwachstellen neuronaler Netzwerke zu erkennen und besser zu verstehen. Nur so können wir effiziente Gegenmaßnahmen einleiten und die größtmögliche Sicherheit gewährleisten.“ Durch die Auswertung und Fusionierung verschiedener Sensordaten – beispielsweise von Kameras, Lidar oder Radar – kann die Objekterkennung zusätzlich enorm verbessert werden.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46320102)