Ein Angebot von /

KI im Automobilsektor: Deep Learning in der Praxis

| Autor / Redakteur: Joe Folkens* / Benjamin Kirchbeck

Obwohl die Effizienz des Deep Learnings als gegeben bezeichnet werden kann, birgt die praktische Anwendung dieser Technik noch einige Herausforderungen.
Obwohl die Effizienz des Deep Learnings als gegeben bezeichnet werden kann, birgt die praktische Anwendung dieser Technik noch einige Herausforderungen. (Bild: Clipdealer)

Deep Learning als Konzept ist bereits mehrere Jahrzehnte alt, hat aber inzwischen an Relevanz gewonnen – nicht nur, weil es mittlerweile die richtigen Anwendungen, sondern selbstverständlich auch, weil nun die notwendige Performance auf normalen Rechnerplattformen zur Verfügung steht. Ein Überblick.

Irgendwann in der Zukunft werden sich die Menschen weitgehend daran gewöhnt haben, dass sie mithilfe von künstlicher Intelligenz (KI) auf sichere Weise von A nach B gefahren werden. Um zu sagen, wann genau wir diesen Wendepunkt erreichen werden, müsste man jedoch Hellseher sein, allerdings kann davon ausgegangen werden, dass der intelligente Teil dann wesentlich mehr „real“ als „künstlich“ sein wird.

Das Attribut „Deep” (tief) in Deep Learning bezieht sich auf die Zahl der zwischen Eingang und Ausgang verborgenen Schichten, die die Daten zwischen den einzelnen Schichten mathematisch verarbeiten (filtern und konvolvieren), bis das finale Ergebnis erreicht ist. In einem Bildverarbeitungssystem wird ein tiefes (anstatt breites) System tendenziell eine stärker generalisierte Erkennung ermöglichen, indem immer weitere Schichten erkannter Merkmale aufgebaut werden, bis schließlich die gewünschte finale Ausgabe vorliegt. Der Vorteil dieser mehreren Ebenen liegt in den Merkmalen, die auf den verschiedenen Abstraktionsebenen erlernt werden.

Bringt man beispielsweise einem tiefen Convolutional Neural Network (CNN) das Klassifizieren von Bildern bei, erlernt die erste Schicht das Erkennen von sehr einfachen Merkmalen wie etwa Kanten. Die nächste Schicht dann lernt Gruppen von Kanten zu erkennen, die Formen bilden. Die sich daran anschließende Schicht wiederum erlernt das Erkennen von Gruppen von Formen (z. B. Nasen oder Augen), bis die abschließende Schicht schließlich noch höhere Merkmale wie etwa Gesichter erkennt.

Mehrere Schichten können also besser generalisieren, weil sie alle Zwischenmerkmale von den Rohdaten bis zur übergeordneten Klassifizierung erlernen. Diese in Bild 1 gezeigte Generalisierung über mehrere Ebenen hinweg erweist sich als vorteilhaft für Anwendungsfälle wie die Verkehrszeichen-Erkennung oder möglicherweise auch die Identifizierung eines bestimmten Gesichts, obwohl die fragliche Person eine dunkle Brille oder einen Hut trägt und/oder das Gesicht auf andere Weise teilweise verdeckt wird.

Bild 1. Vereinfachtes Beispiel zur Erkennung eines Verkehrsschilds.
Bild 1. Vereinfachtes Beispiel zur Erkennung eines Verkehrsschilds. (Bild: TI)

Der Begriff „Learning“ (lernen) in Deep Learning bezieht sich auf die Trainings-Iterationen (Back Propagation), mit denen einem Netzwerk, das in mehrere Ebenen gegliedert ist, das Hervorbringen präziserer Ergebnisse beigebracht wird, indem ihm ein großer Umfang an bekannten Eingangswerten mitsamt den zugehörigen gewünschten Ausgangswerten zur Verfügung gestellt wird (Bild 2).

Dieses Lernen reduziert die Fehler über diese Iterationen hinweg und bewirkt bei den Ergebnissen der geschichteten Funktionen mit der Zeit einen solchen Feinschliff, dass die vorgegebenen Systemanforderungen erfüllt werden und eine höchst robuste Lösung für die Ziel-Applikation entsteht. Diese Art des Lernens, Schichtens und Verknüpfens hat Ähnlichkeit mit dem Nervensystem von Lebewesen und legt deshalb die Verwendung der Bezeichnung „künstliche Intelligenz“ nahe.

Bild 2. Vereinfachtes Back-Propagation-Beispiel.
Bild 2. Vereinfachtes Back-Propagation-Beispiel. (Bild: TI)

Obwohl die Effizienz des Deep Learnings als gegeben bezeichnet werden kann, birgt die praktische Anwendung dieser Technik noch einige Herausforderungen. Wenn es sich eher um eine eingebettete Anwendung handelt, bei der systemseitige Restriktionen wie beispielsweise die Gesamtkosten, der Stromverbrauchs oder die skalierten Rechenfähigkeiten beachtet werden müssen, sind beim Design des Systems für das Deep Learning diese Restriktionen in Betracht zu ziehen. Designer können Frontend-Tools wie Caffe (ein ursprünglich von der University of California in Berkeley entwickeltes Deep Learning-Framework) oder TensorFlow (ein geistiges Produkt von Google) nutzen, um das gesamte Netzwerk, die einzelnen Schichten und die entsprechenden Funktionen zu entwickeln, aber auch für das Training und die Verifikation der angestrebten Endergebnisse. Ist diese Arbeit getan, kann ein speziell auf einen bestimmten Embedded-Prozessor ausgerichtetes Tool die Ausgabe des Frontend-Tools in eine Software umsetzen, die von dem jeweiligen Embedded-Baustein verarbeitet werden kann.

Das TI Deep Learning Framework (TIDL) in Bild 3 unterstützt auf Deep Learning bzw. CNN basierende Applikationen auf Automotive-Prozessoren der Reihe TI TDAx, um auf effizienten Embedded-Plattformen überzeugende Fahrassistenzsystem-Funktionen zu realisieren.

Bild 3. Das TIDL Framework (TI Device Translator und Deep Learning Library).
Bild 3. Das TIDL Framework (TI Device Translator und Deep Learning Library). (Bild: TI)

Das TIDL Framework sorgt für eine schnelle Embedded-Entwicklung und Plattformabstraktion für die Skalierbarkeit der Software und bietet hochgradig optimierte, auf TI-Hardware implementierte Kernels zur Beschleunigung von CNNs sowie einen Translator, der die Umsetzung des Netzwerks von offenen Frameworks wie Caffe und TensorFlow in eingebettete Frameworks unter Verwendung von TIDL-APIs (Application Programming Interfaces) ermöglicht.

Fünf Aufgaben der Ultraschalltechnik im Fahrzeug

Fünf Aufgaben der Ultraschalltechnik im Fahrzeug

04.09.19 - Per Knopfdruck fährt Ihr Auto automatisch vor, öffnet die Tür, damit Sie einsteigen können, bewegt sich daraufhin auf dem zügigsten Weg zu Ihrem Arbeitsplatz, fährt in das Parkhaus durch automatisierte Schranken, parkt autonom in die freie Lücke ein, lässt Sie aussteigen und lädt sich dann während der Standzeit auf. Ein zentrales Element des Ganzen: Ultraschallsensoren. lesen

* Joe Folkens arbeitet als Product Marketing Engineer im Bereich Automotive Processors für Texas Instruments.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46121937 / Automotive Electronics Engineering)