Ein Angebot von /

Datenzusammenführung

Sensor-Fusion für Embedded-Vision-Applikationen

| Autor / Redakteur: Adam Taylor * / Sebastian Gerstl

Bild 2: Die Architektur des homogenen Verfahrens.
Bild 2: Die Architektur des homogenen Verfahrens. (Bild: Xilinx)

Eine alternative Methode wäre hier der Einsatz eines zweiten Bildsensors, was eine stereoskopische Darstellung ermöglicht. Dieses Verfahren nutzt zwei Bildsensoren, die in dieselbe Richtung blicken, aber mit gewissem Abstand nebeneinander angeordnet sind. Dieser entspricht in etwa dem menschlichen Augenabstand. Damit lässt sich die Tiefendimension des Objektbereichs im Blickfeld über die Parallaxe ermitteln. Setzt man dazu mehrere Sensoren desselben Typs ein, spricht man von homogener Sensor-Fusion.

Natürlich bestimmt die jeweils vorliegende Applikation die Anforderungen an die Architektur des Systems und die Wahl der eingesetzten Sensortypen. Dazu zählen vor allem das Sichtfeld, in dem die Tiefenwahrnehmung erforderlich ist, weiterhin die notwendige Genauigkeit der Messung, die vorliegenden Licht- und Wetterbedingungen, die Kosten der Implementierung sowie deren Komplexität.

Embedded Vision Applikationen im Auto werden aber nicht nur zur Objekterkennung und Kollisionsvermeidung eingesetzt. Sie können auch Teil eines Navigationssystems sein, in dem das Embedded Vision System zur Erkennung von Verkehrszeichen dient. Die Fusion mehrerer unterschiedlicher Bilder, etwa auf der Grundlage von Röntgen-, MRI- und CT-Sensoren, etwa in der medizinischen Diagnostik, oder von Sensoren im visuellen und infraroten Bereich für Beobachtungsaufgaben und Sicherheitsanwendungen, sind Beispiele für die weiteren Anwendungsmöglichkeiten der Sensor-Fusion.

Anforderungen an die Bild- und Datenverarbeitung

Oft betrachtet man Embedded Vision Applikationen nur unter dem Aspekt des visuell wahrnehmbaren elektromagnetischen Spektrums. Doch gibt es zahlreiche Embedded Vision Applikationen, die auch Daten in diese Fusion einbeziehen, die außerhalb des sichtbaren elektromagnetischen Spektralbereichs liegen.

Die Bildverarbeitung erfordert auch ohne die Ausführung der Sensor-Fusion bereits beträchtliche Rechenleistungen. Denn solche Systeme müssen eine Reihe von Funktionen zur Vorverarbeitung der Bildsignale bereitstellen. Dazu zählen beim Einsatz eines Farbbildsensors eine Farbfilter-Interpolation und die geeignete Umsetzung des Farbraums, nebst Resampling und Bildkorrektur. Zusätzlich zu diesen Anforderungen muss man auch den Algorithmus für die Sensor-Fusion implementieren. Im Fall des genannten Beispiels zur Objekterkennung und Kollisionsvermeidung muss das System auch die Subtraktion des visuellen Hintergrundes ausführen, sowie eine praktikable Schwellenbildung der Wahrnehmung mit Konturdetektion, um die erkannten Objekte sicher zu lokalisieren. Das gilt für das einfachste Verfahren. Sind die Anforderungen höher, ist der Einsatz eines HoG-/SVM-Klassifikators zur intensiveren Bildbearbeitung ratsam.

Mit wachsender Bildrate und Bildgröße steigt auch die erforderliche Verarbeitungsleistung zur Vorverarbeitung des Bildes und zur Extraktion der gewünschten Information. Doch das ist nur eine Seite der Geschichte. Denn die erforderliche Information lässt sich zwar ohne weiteres aus einem einzigen Bild extrahieren. Doch beim Einsatz der heterogenen Fusion muss auch der Signalhaushalt des zweiten Sensors konfiguriert, verstärkt, weitergeleitet und extrahiert werden. Bei homogenen Systemen muss die Bildbearbeitungskette für den zweiten Sensor exakt in derselben Weise implementiert werden wie für den ersten Sensor. Dabei entstehen zwei Datensätze, die geeignet verarbeitet werden müssen, um die wirkliche Distanz des detektierten Objekts in der vorliegenden Sensor-Fusion-Applikation zu messen.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44912682 / Sensoren)