Ein Angebot von /

Elektronische Sensor- und Verarbeitungstechnik als Basis autonomer Automobilsteuerung

| Autor / Redakteur: Rajat Sagar* / Benjamin Kirchbeck

Die (teil)autonome Fahrzeugsteuerung stellt nicht nur eine Möglichkeit zur Verbesserung der Verkehrssicherheit dar, sondern ist auch ein florierender Markt für Unternehmen, die die benötigte Elektronik anbieten.
Die (teil)autonome Fahrzeugsteuerung stellt nicht nur eine Möglichkeit zur Verbesserung der Verkehrssicherheit dar, sondern ist auch ein florierender Markt für Unternehmen, die die benötigte Elektronik anbieten. (Bild: Clipdealer)

Autonome Automobilsteuerungen auf der Basis elektronischer Sensor- und Verarbeitungstechnik bieten einen Nutzen, der weit über den Hype hinausgeht, der stets mit einem technologischen Durchbruch einhergeht. Sie bieten einen greifbaren Nutzen in Sachen Kraftstoffersparnis, Mobilität, Komfort oder der effizienten Nutzung der Verkehrswege. Eine Übersicht über Hintergründe und Grundlagen.

Zukunftsforscher träumen schon lange von selbstständig fahrenden Fahrzeugen. Tatsächlich gab es Fernsteuerungs-Versuche bereits vor fast einem Jahrhundert, und schon auf der New Yorker Weltausstellung des Jahres 1939 wurden unter dem Motto „World of Tomorrow“ automatisierte Schnellstraßen gezeigt. Die Realisierung vollständig autonomer Fahrzeuge aber war unerreichbar – bis vor Kurzem neue Technologien auf den Plan traten, mit denen sich die Fantasien der Vergangenheit langsam aber stetig verwirklichen lassen.

Es ist allgemein bekannt, dass diverse Großkonzerne und nahezu alle relevanten Automobilhersteller an der Entwicklung selbstfahrender Fahrzeuge arbeiten. Weniger bekannt sind hingegen die umfangreichen Anstrengungen, die in die Entwicklung von Fahrassistenz-Technologien und der ihnen zugrundeliegenden Halbleiter-Innovationen investiert werden. Diese Technologien verändern mit hohem Tempo das Design der Automobile und bewirken eine Weiterentwicklung bei der Steuerung von Kraftfahrzeugen, die mittlerweile zur Einführung teilautonomer Fahrzeuge in den Verkehr geführt hat und dafür sorgt, dass in nur wenigen Jahren ein vollautonomer Betrieb möglich sein wird.

Die Forderung nach Verkehrssicherheit

Nach Angaben staatlicher Stellen starben im vergangenen Jahr bei Verkehrsunfällen allein in den USA 40.000 Menschen, während es weltweit sogar 1,25 Millionen waren. In den USA sind Verkehrsunfälle nach wie vor die Haupt-Todesursache junger Menschen, und auch bei der Gesamtbevölkerung stehen sie auf der Liste der Todesursachen ganz weit oben. Zu den Getöteten kommt die weitaus größere Zahl der Verletzten hinzu, ganz zu schweigen von den enormen materiellen Schäden, die im Zusammenhang mit Unfällen entstehen. Verursacht werden Verkehrsunfälle zum weit überwiegenden Teil von Menschen – einige Schätzungen beziffern den Anteil auf 90 Prozent. Insofern erscheint es folgerichtig, die Autofahrer beim sicheren Umgang mit ihren Fahrzeugen zu unterstützen, um die Zahl der im Straßenverkehr getöteten und verletzten Menschen zu verringern.

Die Fahrzeugsteuerung stellt jedoch nicht nur eine bemerkenswerte Möglichkeit zur Verbesserung der Verkehrssicherheit dar, sondern ist auch ein florierender Markt für Unternehmen, die die dafür benötigte Elektronik anbieten. Aktive Sicherheitssysteme bilden den am schnellsten expandierenden Teil der rund 30 Milliarden US-Dollar, die derzeit weltweit für elektronische Bauteile in Automobilen ausgegeben werden. Halbleiter-Lösungen der Spitzenklasse werden dazu beitragen, die Einführung dieser neuen Funktionen zu beschleunigen und damit den Weg zu mehr Sicherheit zu ebnen.

Auf fortschrittliche Technologie angewiesen

Aktive Sicherheit hängt unter anderem von Fahrassistenzsystemen (engl.: Advanced Driver Assistance Systems, ADAS) ab. Dieser Begriff bezeichnet eine Reihe elektronischer Technologien, die Unterstützung bei der sicheren Bedienung von Kraftfahrzeugen leisten. Innovationen im Bereich der Fahrassistenzsysteme helfen bei der Vermeidung von Unfällen, indem ein sicherer Abstand zwischen den Fahrzeugen gewahrt wird, Fahrer vor gefährlichen Situationen gewarnt werden, Fahrzeuginsassen und Personen auf der Straße vor falscher Fahrweise geschützt werden und andere sicherheitsrelevante Funktionen wahrgenommen werden. Abgesehen davon erbringen Fahrassistenzsysteme weitere Funktionen, die wichtige Elemente für das computergesteuerte, autonome Fahren der Zukunft darstellen. Wenn selbstfahrende Autos das Potenzial bergen, die Fahrer so zu entlasten, dass sie ihre Zeit auf dem Weg zur Arbeit und auf längeren Fahrten effektiver nutzen können, tragen die von Fahrassistenzsystemen gebotenen Funktionen dazu bei, kollisionsbedingte Reparaturen zu minimieren, Verletzungen zu vermeiden und Leben zu retten.

Die Automobilhersteller beeilen sich, ihre neuen Fahrzeuge mit immer mehr Fahrassistenz-Funktionen auszustatten, und so werden auf dem Markt Jahr für Jahr immer neue Features verfügbar. Hierfür benötigen die Automobilhersteller von den Halbleiterherstellern eine ganze Reihe fortschrittlicher IC-Technologien, die in der Lage sind, eine Vielzahl externer Sensoren präzise und zuverlässig zu unterstützen, die Kommunikation zwischen den verschiedenen Systemen eines Autos aufrecht zu erhalten und die leistungsfähigen, heterogenen Verarbeitungsfunktionen für die Bildverarbeitung und Entscheidungsfindung zur Verfügung zu stellen, die für die Fahrassistenzsysteme und automatisierten Fahrfunktionen der nächsten Generation benötigt werden.

Die Entwicklung der Automation im Interesse der Fahrsicherheit

Die Norm SAE J3016 (Klassifizierung und Definition von Begriffen für straßengebundene Kraftfahrzeuge mit Systemen für automatisiertes Fahren) der Society of Automotive Engineers ist ein Klassifizierungssystem mit dem Ziel einer einheitlichen Terminologie im Bereich des automatisierten Fahrens.

Autonomiestufe 0 steht für keine Automatisierung und wird bereits als überholt betrachtet. Auf den Autonomiestufen 1 und 2 finden wir Systeme, die für kurze Zeit die aktive Steuerung des Fahrzeugs übernehmen können, um beispielsweise beim Einparken zu helfen, die Kollision mit übersehenen Objekten beim Rückwärtsfahren zu vermeiden und Zusammenstöße bei Brems- und Ausweichmanövern zu verhindern. Gelegentlich steuert das System aktiv eine bestimmte Funktion des Fahrzeugs. Ein Beispiel hierfür sind adaptive Scheinwerfer, die sich automatisch auf bevorstehende Kurven oder andere wechselnde Bedingungen einstellen.

Auf Autonomiestufe 3 geht es um den teilautonomen Betrieb. Das Fahrzeug übernimmt unter bestimmten Umständen das Fahren, aber der Fahrer muss stets bereit sein, die Kontrolle wieder zu übernehmen. Ein Beispiel ist das Fahren auf der Autobahn. Ein hierfür vorgesehenes teilautonomes Feature ist der Abstandsregeltempomat (adaptive Geschwindigkeitsregelung), der die Fahrgeschwindigkeit stets so anpasst, dass ein konstanter Abstand zum vorausfahrenden Fahrzeug gewahrt wird. Als weiteres Beispiel ist der Spurhalteassistent anzuführen, der mithilfe einer Front- oder Heckkamera dafür sorgt, dass das Fahrzeug immer in der Mitte seiner Fahrspur bleibt und einen sicheren Abstand zu anderen Fahrzeugen einhält. Die Einparkautomatik übernimmt die volle Kontrolle über das Fahrzeug beim Einparken, und die Fahrerüberwachung kann eine etwaige Fahrunfähigkeit der Person hinter dem Lenkrad feststellen, um das Fahrzeug sicher am Fahrbandrand anzuhalten.

Wenn die Fahrzeuge auf den Autonomiestufen 4 und 5 zum vollautonomen Betrieb übergehen, muss der Fahrersitz nicht unbedingt mehr besetzt sein, sondern es kann sein, dass sich nur noch eine ältere oder behinderte Person auf dem Rücksitz befindet oder das Fahrzeug sogar ganz unbesetzt ist, wenn es jemanden an der Schule oder am Flughafen abholen soll.

Bild 1: Autonomiestufen für Straßenfahrzeuge gemäß SAE International.
Bild 1: Autonomiestufen für Straßenfahrzeuge gemäß SAE International. (Bild: TI)

Jede dieser Autonomiestufen setzt auf den jeweils darunter liegenden Stufen auf, sodass die bestehenden Sicherheitssysteme in neue, komplexere System eingebunden werden. Die meisten neuen Autos sind heute mit passiven und sogar einigen aktiven Fahrassistenz-Funktionen ausgestattet, und ihre Verfügbarkeit nimmt rapide zu. Prognosen des Marktforschungsunternehmens IHS Market besagen, dass der ADAS-Weltmarkt bis 2022 die Marke von 302 Millionen Stück überschreiten wird, was zum Teil neuen Technologien wie etwa Fahrerüberwachungs-Systemen sowie Innen- und Seitenspiegelkameras zu verdanken sein wird. Features für den fortschrittlichen teilautonomen Betrieb werden bereits jetzt in Oberklasse-Fahrzeugen verfügbar und setzen sich in der Folge auch in den niedrigeren Fahrzeugklassen durch. Die derzeit noch in der Versuchsphase befindlichen vollautonomen Fahrzeuge dürften in den Jahren 2020 bis 2025 folgen.

Wie bei nahezu allen Innovationen, besteht auch bei Fahrassistenz-Funktionen die Tendenz, zunächst Oberklasse-Fahrzeuge mit ihnen auszustatten, gefolgt von Mittelklasse- und Kleinwagen. In einigen Fällen allerdings (beispielsweise bei den Rückfahrkameras) waren Nutzfahrzeuge Vorreiter der Innovation, weil diese Features besonders bei schweren Lastwagen nützlich sind.

Zugrundeliegende Halbleiter-Technologien

Hochgradigere Fähigkeiten für das automatisierte und assistierte Fahren sowie wachsende Zuverlässigkeits-Anforderungen generieren einen Bedarf an multimodalen Systemen, die Inputs von verschiedenen Sensoren wie etwa Ultraschall, Radar, Lidar und Kameras (farbig, monochrom, Stereo und Nachtsicht) entgegennehmen.

Außerdem sind die Satellitenkommunikation und die Funk-Kommunikation mit in der Nähe befindlichen Fahrzeugen (Vehicle to Vehicle, V2V) sowie stationären Einrichtungen (Vehicle to Infrastructure, V2X) für die Positionsbestimmung, die Lokalisierung, die Meldung des Straßenzustands und weitere Informationen erforderlich.

Bild 1 zeigt eine typische Systemarchitektur für die Autonomiestufen 3 bis 5 aus einer funktionsbezogenen Perspektive. Dass zur Verwirklichung dieser Systeme eine enorme Vielzahl echtzeitfähiger Funktionen benötigt wird, steht außer Zweifel.

Bild 2: Typische Systemarchitektur für die Autonomiestufen 3 bis 5.
Bild 2: Typische Systemarchitektur für die Autonomiestufen 3 bis 5. (Bild: TI)

Wenn sie in Echtzeit orientiert am Auftreten der Ereignisse arbeiten, müssen Fahrassistenz- und automatisierte Fahrsysteme die verschiedenen Inputs in verwertbare Daten verwandeln und daraus die jeweils benötigten Informationen extrahieren. Insgesamt haben diese Systeme Informationen aus verschiedenen Quellen zusammenzuführen, über die richtige Bedienhandlung zu entscheiden und diese dem Fahrer oder der automatischen Steuerung zu kommunizieren. Die Systeme setzen nicht nur einen hohen Grad an Verlässlichkeit bei den Inputs selbst voraus, sondern stützen sich auch auf leistungsfähige Rechenfunktionen, die eine Vielzahl von Algorithmen gleichzeitig verarbeiten können.

Die untere Verarbeitungsebene etwa liefert einen stetigen Strom an vorab gefilterten oder aufbereiteten Videobildern der Straße, während die mittlere Verarbeitungsebene wichtige Objekte in bestimmten Abschnitten der Bilder identifiziert. Die höhere Verarbeitungsebene schließlich bestimmt die Art der identifizierten Objekte – also andere Fahrzeuge, Personen, Tiere, Verkehrsschilder oder Ampeln – sowie die Geschwindigkeit, mit der sich diese Objekte bewegen. Ein Mikrocontroller (MCU) entscheidet anschließend, ob weitergefahren, angehalten oder abgewartet werden soll, bis sich der Fußgänger bewegt, die Ampel umschaltet oder ein nahes Auto überholt. Parallel dazu werden Datenströme aus anderen Sensoren (z. B. Radar) auf Informationen untersucht, falls bestimmte Rahmenbedingungen wie etwa schlechte Sicht durch Nebel bestehen. Da jeder Sensor mit schwierigen externen Bedingungen konfrontiert werden kann, sorgt das Zusammenführen von Inputs aus verschiedenen Datenströmen für eine deutliche Verbesserung der Genauigkeit und Zuverlässigkeit.

Die Notwendigkeit zur Unterstützung von immer mehr multimodalen Systemen mit mehreren Sensoren pro System resultieren in immer höheren Anforderungen für die Halbleiteranbieter. Gleichzeitig aber stehen die Automobilhersteller vor der Herausforderung, diese im ganzen Fahrzeug verteilten neuen Sensoren mitsamt den zugehörigen Verarbeitungseinheiten zu integrieren, ohne dass dies zu Lasten der Formgestaltung der Fahrzeuge und des Platzes für die Insassen geht. Außerdem gilt es die Systemkosten niedrig zu halten, damit immer mehr reichhaltig ausgestattete ADAS-Applikationen die Massen erreichen.

Die System-on-Chip-Architektur (SoC) von TI macht hocheffiziente Implementierungen möglich, mit denen sich multimodale Sensoren integrieren lassen – bei gleichzeitiger Optimierung der Gesamt-Leistungsaufnahme, des Platzbedarfs und der Systemkosten. Ein entscheidender Mechanismus, mit dessen Hilfe die SoC-Architektur von TI bei weiterer Optimierung mehr leisten kann, ist die Nutzung einer heterogenen Architektur.

Was versteht man unter einer heterogenen Architektur?

Um das Konzept der heterogenen Architektur besser verstehen zu können, soll jetzt ein kurzer Blick auf die Signalverarbeitungskette eines Fahrassistenzsystems geworfen werden. Diese lässt sich in verschiedene Segmente untergliedern:

Untere Verarbeitungsebene

  • Hauptsächlich Verarbeitung von Rohdaten aus Sensoren (z. B. Kamera, Radar, Lidar usw.).
  • Die untere Verarbeitungsebene für eine Kamera umfasst die Verarbeitung der Pixeldaten, um sinnvolle Bilder für die Weiterverarbeitung zu generieren. Im Fall eines Radarsensors geht es auf der unteren Verarbeitungsebene um die Ausführung von Korrelations-Operationen zur Detektierung von Objekten und zur Berechnung von Geschwindigkeitsvektoren.

Mittlere Verarbeitungsebene

  • Identifikation interessierender Objekte in den Bildern für die Verwendung durch die obere Verarbeitungsebene mit dem Ziel der Objekterkennung. Ein Sicherheits-Mikrocontroller entscheidend daraufhin über die zu ergreifenden Maßnahmen.
  • Auf den höheren Ebenen des assistierten oder automatisierten Fahrens entwickelt die mittlere Verarbeitungsebene ein umfassendes Verständnis einer bestimmten Szenerie auf der Basis einer oder mehrerer Sensor-Modalitäten.

Obere Verarbeitungsebene

  • Diese erstreckt sich von der schlichten Verwendung der von der mittleren Verarbeitungsebene gelieferten Ergebnisse über die Ausführung von Aktionen wie etwa Bremseingriffen bis hin zu Funktionen wie der Routen- und Fahrwegplanung für höhere Autonomiestufen.

Die untere Verarbeitungsebene nutzt tendenziell relativ einfache, sich wiederholende Algorithmen, die parallel zur Verarbeitung großer Mengen an Eingangsdaten arbeiten. Die mittlere Verarbeitungsebene ist, was den Umfang der Daten und die Komplexität angeht, zwischen den beiden anderen Ebenen einzuordnen, während es die obere Verarbeitungsebene mit vergleichsweise wenigen Daten, aber komplizierten Algorithmen zu tun hat. Ein Universalprozessor kann diese Algorithmen und Funktionen zwar codieren und ausführen, jedoch ist dies in der Regel nicht die effizienteste Implementierung. Stattdessen ist es am besten, für jede Ebene eine andere Verarbeitungsarchitektur zu nutzen, wie in Tabelle 1 genauer aufgeschlüsselt ist.

Tabelle 1: Struktur einer heterogenen Architektur.
Tabelle 1: Struktur einer heterogenen Architektur. (Bild: TI)

Die effizienteste Möglichkeit, die verschiedenen ADAS-Funktionen den einzelnen Abschnitten der Signalkette zuzuordnen, um eine möglichst effiziente Verarbeitungsarchitektur zu verwirklichen, ist in Bild 1 zu sehen.

Bild 3: Abbildung der verschiedenen Funktionen auf die passende Verarbeitungsarchitektur.
Bild 3: Abbildung der verschiedenen Funktionen auf die passende Verarbeitungsarchitektur. (Bild: TI)

ADAS-Datenflüsse verlangen außerdem nach Echtzeitverarbeitung. Indem man die untere Verarbeitungsebene auf spezielle Beschleuniger oder eine SIMD-Pipeline abbildet, reduziert man den insgesamt entstehenden Softwareaufwand, während gleichzeitig die Echtzeit-Verarbeitungsvorgaben eingehalten werden.

Einfachere Softwareentwicklung und Skalierbarkeit

Eine heterogene Architektur ist außerordentlich effizient, was die Abbildung der Signalkette betrifft, sodass die Entwicklung kosten- und energieeffizienter Systeme möglich ist. Die Programmierung vieler verschiedener Arten von Verarbeitungs-Kernen ist jedoch zugegebenermaßen eine anspruchsvollere Aufgabe, speziell wenn neue Systeme unter dem Einfluss eines hohen Wettbewerbsdrucks entwickelt werden müssen. Die verwendete Software muss abstrahiert, verfeinert und in späteren Systemen wiederverwendet werden, wenn sich die aktiven Sicherheitsfunktionen weiterentwickeln.

Die SoC-Architektur von TI enthält auch Elemente wie einen Inter-Processing Core (IPC) und Cache-Kohärenz, um ein hocheffizientes ADAS-Software-Framework zu ermöglichen. Der Zweck dieses Software-Frameworks ist es, in möglichst großem Umfang eine offene Rechenstruktur zu ermöglichen und die Entwickler damit von der Komplexität einer heterogenen Architektur zu entkoppeln, während deren Vorteile dennoch alle genutzt werden können.

Abgesehen von seinen eigenen Software-Frameworks ist TI beispielsweise ein wichtiger Beteiligter am Khronos OpenVX Standard für eine Beschleunigung der Computer-Bildverarbeitung. OpenVX nimmt sich der Abstraktion einer heterogenen Architektur an, kombiniert dies aber mit minimalem Aufwand und uneingeschränkter Anwender-Flexibilität.

Die Vorteile von OpenVX sind nachfolgend aufgeführt, und in Bild 3 ist eine abstrakte Darstellung der OpenVX-Implementierung auf TI-SoCs zu sehen. Die Leistungsfähigkeit der TI-SoCs kommt somit über eine portierbare OpenVX-Schnittstelle vollständig zum Tragen.

  • Portierbare, energieeffiziente Bildverarbeitung
  • Beschleunigte, verteilte Parallelverarbeitung auf DSPs, EVEs, HWAs und ARM-Prozessoren
  • Skalierbar über die Fahrassistenz-SoC-Familie TDA2x, TDA2Ex, TDA3x und TDA-Next
  • Unterstützung für das TI-Real-Time Operating System (TI-RTOS) und Linux OS
  • PC- (Windows-) Emulation für das Prototyping von Applikationen und Kernels
  • Automatisierte Generierung von Applikations- und Kernel-Wrapper-Code
  • Konformität zur OpenVX-1.1-Spezifikation

Bild 4: OpenVX-Implementierung auf TI-SoCs.
Bild 4: OpenVX-Implementierung auf TI-SoCs. (Bild: TI)

Die Deep-Learning-Entwicklung von TI

Neben der Vereinfachung der allgemeinen Softwareentwicklung durch offene Frameworks wie OpenVX revolutioniert TI auch die Deep-Learning-Entwicklung für TI-SoCs, indem fertige, vereinfachte Entwicklungsabläufe geboten werden. Der Deep-Learning-Flow von TI erlaubt das Lernen und Entwickeln in PC- oder Cloud-Umgebungen, in denen die Stromverbrauchs- und Kostenvorgaben gelockert werden können, um die Leistungsfähigkeit zu maximieren und die Entwicklungszeit zu verkürzen. Dennoch ist ein einfaches Deployment auf Automotive-TDA-Bausteinen aus der laufenden Produktion mit geringem Stromverbrauch möglich.

Bild 5: Deep-Learning-Flow von TI auf SoCs der TDA-Familie.
Bild 5: Deep-Learning-Flow von TI auf SoCs der TDA-Familie. (Bild: TI)

Bild 6: heterogene Architektur des SoC TDA2x.
Bild 6: heterogene Architektur des SoC TDA2x. (Bild: TI)

TDA-SoCs ebnen den Weg

Die ADAS-SoCs der TDA2x-Familie von TI enthalten einen programmierbaren Bildverarbeitungs-Beschleuniger, der einen oder mehrere spezielle EVEs zur Bewältigung der enormen Mengen an Videodaten enthält. Vorhanden sind außerdem ISPs für die Vorverarbeitung der Kameradaten, ein DSP für allgemeinere Signalverarbeitungs-Aufgaben und RISC-Optionen, zu denen mehrere ARM-Mikroprozessoren gehören.

Automotive-Know-how zur Realisierung von Sicherheits-Systemen

Das SoC-Portfolio von TI umfasst MCUs, Multi-Core-DSPs und heterogene Bildverarbeitungs-Prozessoren. Wenn es um die Entwicklung von ADAS-Funktionen und Features für autonomes Fahren geht, achten Automobilhersteller bei der Auswahl eines Halbleiter-Zulieferers auf dessen technologische und logistische Stärken. Um diesen Anforderungen gerecht zu werden, hat sich TI frühzeitig als Anbieter von Halbleitersystemen für die aktive Sicherheit etabliert. Die Rolle des Unternehmens als Lieferant aktiver Sicherheitstechnologie stützt sich auf jahrzehntelange Geschäftsbeziehungen mit Automobilherstellern, die auf die Anfänge der Antiblockiersysteme zurückgehen.

Die Logistik kann ein Hemmnis für Neueinsteiger in die Automobilindustrie sein, da ihnen die Erfahrung mit der Einhaltung der einschlägigen Sicherheitsnormen fehlt. Beispiele sind die Norm ISO/TS 16949 für das Qualitätsmanagement und die Norm ISO 26262 für funktionale Sicherheit. Einige hundert Millionen Sicherheits-MCUs, die bis dato bereits ausgeliefert wurden, sprechen für die Erfahrung von TI auf dem Sicherheits-Sektor, die sämtliche Bereiche des Designs und der Herstellung analoger und digitaler Lösungen abdeckt. Kunden aus dem Automobilbereich können sich auch auf den weltweiten Design-Support und die Fertigungspräsenz des Unternehmens verlassen, um die Systementwicklung und die Aufnahme der Massenproduktion zu beschleunigen. Die weltweite Fertigung an mehreren Standorten bietet den Kunden ferner die Gewähr für eine zuverlässige, langfristige Versorgung mit Produkten.

Mit diesen Fähigkeiten ist TI in der Lage, Technologie-Lösungen für die Entwicklung und Herstellung aktiver Sicherheitslösungen zu liefern – von den einfachsten Fahrassistenz-Funktionen bis zu den vollständig autonomen Fahrzeugen der Zukunft.

Schon heute erscheint die Technologie für die Sicherheit der Zukunft

Es wird noch ungefähr zehn Jahre dauern, bis vollautonome Fahrzeuge in nennenswerter Zahl auf unseren Straßen zu sehen sein werden, und noch länger wird es dauern, bis praktisch alle neuen Fahrzeuge selbstständig fahren können. Bis es so weit ist, wird eine stetig ansteigende Zahl von Fahrzeugen mit immer mehr Fahrassistenz-Funktionen ausgestattet werden, um sie sicherer zu machen und gleichzeitig den Kraftstoffverbrauch zu senken und den Komfort für die Fahrer zu verbessern. Die Einführung aktiver Sicherheits-Features ist auf innovative, fortschrittliche Elektronik angewiesen. Dazu gehören Fortschritte bei den Sensoren für Inputs von außen, leistungsfähige Verarbeitungs-Funktionen zur Bewertung der Fahrbedingungen und als Entscheidungshilfe sowie eine Vielzahl analoger Bauelemente für die Signalaufbereitung, die Kommunikation und die Kontrolle des Stromverbrauchs.

Die Automobilhersteller benötigen von den Halbleiterherstellern eine zuverlässige Versorgung mit ICs, gepaart mit leistungsfähiger Design-Unterstützung und dem nötigen Know-how für die technologische Weiterentwicklung in den kommenden Jahren. Wie die Welt mit selbstfahrenden Autos aussehen wird, ist manchmal schwer vorstellbar. Eines aber ist sicher: die IC-Technologie und die Innovationskultur von TI werden entscheidenden Anteil daran haben, sie zu verwirklichen.

Wie sich die RDC-Performance im Antriebsstrang simulieren lässt

Wie sich die RDC-Performance im Antriebsstrang simulieren lässt

29.11.17 - Wie lässt sich die Performance eines Resolver-Digital-Wandlern (RDC) in einem Antriebsstrang simulieren? Und wie können reale Ereignisse – wie etwa ein starkes Bremsen oder plötzliches Beschleunigen des Fahrzeugs – analysiert werden? lesen

ADAS-Kameras mit Fernstromversorgung für Automotive-Anwendungen

ADAS-Kameras mit Fernstromversorgung für Automotive-Anwendungen

17.11.17 - Echtzeitfähige Rundumsicht-Lösungen sind ein Muss in modernen Fahrerassistenzsystemen. Aber die eingesetzten Kameras müssen mit Strom versorgt werden. Hier lesen Sie, wie das funktioniert. lesen

* Rajat Sagar arbeitet als Product Manager im Bereich ADAS Automotive Processors für Texas Instruments

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45493684 / Safety)