Ein Angebot von /

Deep Learning – Upgrade der Wahrnehmungsfunktionen von Fahrzeugen

| Autor / Redakteur: Jack Lamar* / Benjamin Kirchbeck

Viele ADAS-Anwendungen wie etwa die Frontkamera nutzen Convolutional Neural Networks (CNNs), um Aufgaben wie die Detektierung und Klassifizierung von Objekten effizienter zu bewältigen, als es mit traditionellen Computer-Bildverarbeitungsverfahren möglich wäre.
Viele ADAS-Anwendungen wie etwa die Frontkamera nutzen Convolutional Neural Networks (CNNs), um Aufgaben wie die Detektierung und Klassifizierung von Objekten effizienter zu bewältigen, als es mit traditionellen Computer-Bildverarbeitungsverfahren möglich wäre. (Bild: Clipdealer)

Eines der interessantesten Themen im Bereich des Autonomen Fahrens ist das so genannte Deep Learning. Eine Einführung.

Die Träume vom autonomen Fahren beginnen Wirklichkeit zu werden. Dabei schreitet das Streben der Automobilindustrie nach vollständiger Autonomie hauptsächlich durch die Implementierung von immer mehr Fahrassistenzsystemen (Advanced Driver Assistance Systems, ADAS) in den Fahrzeugen voran. Selbst die durchschnittlichen Neuwagen, die heute in den Verkaufsräumen der Autohändler stehen, sind mit mehreren Kameras sowie Radar- und Ultraschallsensoren ausgestattet, die wahrnehmungsbasierte Funktionen wie automatische Einparkhilfen, Notbremsassistenten, Spurhalteassistenten, Müdigkeitswarner usw. ermöglichen.

Kamerabasierte Wahrnehmungsfunktionen sind aus den modernen Autos nicht mehr wegzudenken. Interessanterweise weist die Funktionalität dieser Wahrnehmungssysteme frappierende Ähnlichkeiten mit dem menschlichen Körper auf. Die Kamera bzw. der Bildsensor übernimmt für das Fahrzeug die Rolle der Augen, und die vom Bildsensor ausgegebenen Daten werden an den Hauptprozessor, also quasi das Gehirn weitergegeben, wo sie mit verschiedenen Algorithmen ausgewertet und interpretiert werden.

Die daraus resultierenden Entscheidungen schließlich werden umgesetzt, indem Befehle an die Lenkung, das Gas und/oder die Bremse übertragen werden, die gleichsam die Rolle der Arme und Beine übernehmen, um bei der Analogie zu bleiben. Die Wahrnehmungsfähigkeiten der Autos haben sich in den letzten zehn Jahren deutlich weiterentwickelt – von der einfachen Rückfahrkamera bis zur vollwertigen Rundumsicht mit Einparkfunktion. Auf ganz ähnliche Weise, wie sich die Fähigkeiten des Menschen mit zunehmender Entwicklung des Gehirns erweitern, basierten diese Fortschritte in der ADAS-Technik auf innovativen Wahrnehmungs-Algorithmen, die von immer effizienteren Hardwareplattformen verarbeitet werden.

Deep Learning im Überblick

Deep Learning ist eine Rechenmethode zur Ausführung präziser Klassifizierungen und Vorhersagen auf der Basis neuronaler Netze, die an umfangreichen Datenbeständen trainiert wurden. Bei neuronalen Netzen handelt es sich um eine Gruppe von Algorithmen, die dafür ausgelegt sind, Muster in Daten zu erkennen.

Viele ADAS-Anwendungen wie etwa die Frontkamera nutzen so genannte Convolutional Neural Networks (CNNs), um Aufgaben wie die Detektierung und Klassifizierung von Objekten effizienter zu bewältigen, als es mit traditionellen Computer-Bildverarbeitungsverfahren möglich wäre. In dem Beispiel aus Bild 1 dient das Deep Learning zum Klassifizieren von Fahrzeugen, Straßen, Verkehrszeichen, Fußgängern und Hintergrund und zu deren visueller Unterscheidung in der Ausgabe.

Beispiel für die Objekterkennung und -klassifizierung mit dem TIDL Software Framework auf TDA2-Prozessoren.
Beispiel für die Objekterkennung und -klassifizierung mit dem TIDL Software Framework auf TDA2-Prozessoren. (Bild: TI)

Das TI-Know-how im Deep Learning-Bereich führte zur Entwicklung eines umfangreichen Bestands an Ressourcen. Dazu gehört das TI Deep Learning (TIDL) Software Framework, mit dem sich das Algorithmentraining, die Entwicklung und der Portierungsprozess für die Entwickler vereinfachen lässt. Weitere Informationen über das Deep Learning im Automobilbereich finden Sie im Blogbeitrag „AI in Automotive: Practical Deep Learning”.

Weiterentwicklung der automobilen Wahrnehmungssysteme durch Deep Learning

TI blickt in der Unterstützung von Automobil- und Computer-Vision-Anwendungen auf eine lange Geschichte zurück. Nach dem Zusammenwachsen der Technologie für diese beiden Bereiche war es besonders die Entwicklung von Chips wichtig, die sich durch ein hohes Maß an funktionaler Sicherheit, Energieeffizienz und Leistungsfähigkeit auszeichnen. Die Jacinto TDAx-Prozessorplattform hilft Automobilherstellern und ihren Tier-1-Zulieferern bei der Entwicklung und Implementierung von Deep Learning-Algorithmen für ADAS-Anwendungen.

Das im Bereich der Automobilsoftware tätige Unternehmen Momenta nutzte die heterogene Prozessorarchitektur TDAx von TI unlängst in seinem neuen Wahrnehmungssystem für autonome Funktionalität gemäß SAE L2 bis L4. Automobilhersteller und Tier-1-Zulieferer werden durch die Zusammenführung der Prozessorarchitektur TDAx, des TIDL Software Frameworks und des Deep Learning-Know-hows von Momenta in ein und derselben Lösung in die Lage versetzt, die Netzwerk-Effizienz unter Beibehaltung der präzisen Wahrnehmung von Fahrspuren, Fahrzeugen, Fußgängern und anderen Objekten potenziell zu steigern.

* Jack Lamar ist als Product Marketing Engineer im Bereich ADAS Processors für Texas Instruments tätig.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46051600 / Automotive Electronics Engineering)