Ein Angebot von /

40 Mal schnellere Datenanalyse von Erlkönigen

| Autor / Redakteur: Sven Hansel / Benjamin Kirchbeck

Auf ihren Testfahrten produzieren Erlkönige Datenmengen im mehrstelligen Petabyte-Bereich.
Auf ihren Testfahrten produzieren Erlkönige Datenmengen im mehrstelligen Petabyte-Bereich. (Bild: Hersteller)

Über 100.000 Kilometer legt ein Erlkönig im Laufe seiner Testphase zurück – und liefert dabei rund 10.000 Werte gleichzeitig. Das entspricht bis zu drei Terabyte an Daten – pro Stunde. Eine neue T-Systems-Software beschleunigt die Auswertung nun um den vierzigfachen Wert.

Deutschland im Fernsehjahr 1987, alle acht Wochen donnerstags 21 Uhr: der Autotest im „Telemotor“ des ZDF. Tempogeladene Musik, dynamische Kameraführung und rasante Schnitte rücken den brandaktuellen Audi 90 2.3 passend ins Bild. Das Auto braust durch künstlich angelegte tiefe Pfützen auf der Teststrecke. Abrupt stoppt die Kamera jedoch, der knallharte Tester meldet sich zu Wort: „In der Praxis hat konsequente Aerodynamik allerdings auch Nachteile. Aufgewirbeltes Wasser lässt die Karosserie des Audis stark verschmutzen und Regen oder Schnee fällt beim Öffnen der Türen auf die Sitze“, urteilt der Sprecher seriös und mit sonorer Stimme. Keine Frage, das war damals eine Aussage mit hohem Informationswert für alle Beteiligten, aber mehr oder minder auf der Grundlage von Erfahrung, Intuition und mit reiner Handarbeit „gemessen“. Heute dagegen sind Testfahrten wahre Triebfedern zur sorgfältig geplanten Aufzucht von Datenbergen.

Pro Stunde ein bis drei Terabyte codierter Daten

Autonome Fahrzeuge der kommenden Jahre werden immer komplexer, weil alles miteinander kommuniziert und vernetzt ist. HD-Kameras mit Rundumsicht, Abstandssensoren, Radargeräte, Emissionssonden, Innenmikrofone: Alles zeichnet Signale auf und liefert somit wichtige Erkenntnisse über die Güte der fortgeschrittenen Fahrfunktionen für die Vorproduktionstests der Erlkönige. „Diese Fahrzeuge geben pro Stunde ein bis drei Terabyte an speziell codierten Daten ab“, schildert Christoph G. Jung, Principal Architect bei T-Systems, den Wandel der Zeit – und somit auch eine neue Herausforderung für alle digitalisierten Industriebereiche.

Denn für die betroffenen Unternehmen ist es nahezu gleichgültig, ob die Zahl der durch das IoT miteinander verbundenen Geräte und Sensoren bis 2020 nun 50 Milliarden oder 60 Milliarden beträgt. Die immense Herausforderung besteht in dem, was deren Mess- und Kontrolleinheiten an Big Data erzeugen, und in der anschließenden Auswertung dessen in Echtzeit. Es handelt sich hierbei im Grunde genommen um eine Art digitale Trüffelsuche. Wenn sozusagen Erntezeit der kostbaren Rohdatenware ist, muss sich das wertvolle Gut in kürzester Zeit extrahieren und schmackhaft zubereiten lassen, sonst veraltet die enthaltene Information.

In der Automobilindustrie sind es mehrere Hundert Fahrzeuge, die die professionellen Testfahrer auf Herz und Nieren rund um die Welt und rund um die Uhr im Mehrschichtbetrieb über die Teststrecken jagen. Immer auf der Suche nach Auffälligkeiten. Und stets darauf fokussiert, etwaige Sicherheitsprobleme in der „denkenden“ Steuergerätesoftware so früh wie möglich zu entdecken – penibel genau und bis ins letzte Bit und Byte. Drehzahlen, Verbrauchswerte, Motor- und Getriebedaten, Radarabtastungen: Bis zu 10.000 Kanäle erfassen die modernen Sensoren des Autos, darunter neuerdings nicht nur Verkehrsschilder und Passanten, sondern auch die Pupillenbewegungen des Fahrers selbst, um gegebenenfalls eintretender Unaufmerksamkeit oder Müdigkeit entgegenzuwirken.

Huge Data – Wenn selbst modernste Technologie nicht mehr nachkommt

Während der Fahrt werden alle diese Informationen über eine Art Blackbox auf modernen, stoßunempfindlichen Festspeichern (Solid State Disks) protokolliert, die am Ende des Arbeitstages in der Fahrzeughalle eigentlich „nur“ noch ausgelesen und in die Auswertungssoftware eingespeist werden müssten – eigentlich.

Denn bei den dafür insgesamt global notwendigen Bandbreiten der Datenverarbeitung stößt jedes Unternehmen mit den heute üblichen Bordmitteln (4G-Netze, WLAN, VPN und Hostrechner) an seine Grenzen. Schnell liegt man im mehrstelligen Petabytebereich, weshalb man heute schon von „Huge Data“ spricht. Dennoch müssen die Ingenieure die erfassten Signale bereits nach wenigen Stunden auswerten können, um kritische Fehler zu beheben und die wichtigen nächsten Tests vorzubereiten, solange die Daten frisch sind. Man kann das mit einem riesigen Feld vergleichen, auf dem eine erkleckliche Zahl Trüffel höchster Güte in der Erde steckt, es aber viel zu wenig Erntehelfer gibt, welche dem Sternekoch zuarbeiten.

Mit herkömmlicher Technologie sind die Autoingenieure also oft zu einer mehrtägigen Geduldsprobe und hypothetischen Gedankenspielen verdammt, da das Auslesen und Analysieren des entstandenen Datenbergs viel zu lange dauern – ein für die Industrie nicht unerheblicher Kostenblock und Hemmschuh.

Denn technologisch ist das Auslesen eine besondere Herausforderung. Anders als beispielsweise bei Texten lassen sich diese sogenannten Signaldaten bis dato nur schlecht komprimieren und effizient interpretieren. Softwareentwickler kennen das: Dateien eines großen Buchs beispielsweise lassen sich, bildlich gesprochen, in handlichere Ausschnitte zerreißen. Dann liest ein Rechner die erste Hälfte ein, ein anderer kümmert sich in der Zwischenzeit um die zweite, bis man die Ergebnisse beider Analysen einfach zusammenfügen kann. Mit zwei Rechnern ist man also doppelt so schnell fertig, mit einem ganzen Rechnerstapel (Cluster) liegt das Ergebnis nach wenigen Sekunden vor.

Rasantes und komprimiertes Abspeichern

Doch ein solches Verfahren konnte in der Automobilentwicklung bisher nicht angewandt werden. „Bei der Aufzeichnung maschineller Signale kommen keine festen Zeichensätze wie bei Texten zum Einsatz, sondern es handelt sich um variable, situationsabhängige Codierungen. Wenn ein Auto beispielsweise in einen höheren Drehzahlbereich wechselt, dann müssen bestimmte, mit dem Motor in Verbindung stehende Kanalgruppen auch öfter abgetastet werden“, klärt Fachmann Jung auf. Übertragen auf ein Kochbuchbeispiel hieße das in etwa, dass jedes der internationalen Rezepte in seiner Herkunftssprache (und auch dem jeweiligen Schriftsystem!) verfasst worden wäre, also etwa in Deutsch, Spanisch, Russisch, Griechisch, Chinesisch usw. Klassische Daten-kompressionsverfahren tun sich damit schwer. „Doch damit wollte ich mich einfach nicht zufriedengeben und habe nachgedacht“, berichtet Christoph G. Jung.

Seine Erfindung – die von der Telekom nunmehr auch zum Patent angemeldet wird – schafft gleich zwei Hindernisse beiseite. Erstens knackt sie die vermeintlich unvorhersehbaren Datenformate und bringt sie in logisch zusammengehörige technische Stücke (sogenannte Chunks). Diese werden dem Rechnersystem gewissermaßen als zweite Fremdsprache „in die Wiege“ gelegt. Und zweitens sorgt die Lösung – es handelt sich dabei um einen sogenannten „Transcoder“ ähnlich einem MP3-Wandler in modernen Audiogeräten – für ein rasantes und komprimiertes Abspeichern, auch in der Cloud.

Denn nicht immer wenn ein Motor höherdreht, ändern sich auch Temperatur oder Öldruck plötzlich schneller. Das entstandene softwarebasierte Signalverarbeitungsverfahren („Big Data Signal Processing“) macht sich diesen Umstand zunutze und kann so ohne Informationsverlust auf einem Bruchteil der ursprünglichen Daten, gleichzeitig jedoch auf allen Rechnerkernen eines bereitgestellten Clusters operieren. Die in der Praxis erzielte Geschwindigkeit ist 40-mal höher als bei bisherigen Verfahren, die gespeicherte Datenmenge schrumpft dabei je nach gemessenen Kanälen auf bis zu zehn Prozent des ursprünglichen Volumens.

„Anders, als es etwa der Privatanwender von MP3 kennt, können wir die Daten auch exakt in ihre ursprüngliche Form zurückbringen. Möchte ein Ingenieur also eine entdeckte Anomalie ganz en détail untersuchen und benötigt den entsprechenden Teilausschnitt in vollem Umfang, so ist das mit unserem Huge- Data-Verfahren jederzeit möglich“, verrät Christoph G. Jung.„Anders, als es etwa der Privatanwender von MP3 kennt, können wir die Daten auch exakt in ihre ursprüngliche Form zurückbringen. Möchte ein Ingenieur also eine entdeckte Anomalie ganz en détail untersuchen und benötigt den entsprechenden Teilausschnitt in vollem Umfang, so ist das mit unserem Huge- Data-Verfahren jederzeit möglich“, verrät Jung.

Transportables klimatisiertes Minirechenzentrum

Da sich neben den Originalsignalen darüber hinaus auch abgeleitete und von einem Simulationsrechner künstlich erzeugte Kanäle in diese Mikroskopfunktion einblenden lassen, ist die neue Art der Signalverarbeitung flexibel genug, mit simulierten Testfahrten umzugehen. Denn ändert ein Zulieferer etwa die Software eines seiner Steuergeräte auch nur minimal, so wären die Automobilhersteller letztlich gezwungen, die kompletten Testfahrten auf der Straße zu wiederholen. Eine aufwendige Angelegenheit, denn in der Industrie spricht man hier von bis zu 150.000 Kilometer Teststrecke als branchenüblichem Wert. Stattdessen bauen die Hersteller die aktualisierten Steuergeräte in einen Simulator ein, der dem betroffenen Steuergerät die aufgezeichneten Signale des Testfahrzeugs lediglich abspielt und dann dessen geänderte Reaktion aufzeichnet („Hardware-in-the-Loop“). In diese ertragreiche und möglichenfalls mehrfache Ernteschleife fügt sich die T-Systems Entwicklung optimal ein.

Der Huge-Data-Turbo kommt bei den Nutzern indes dermaßen gut an, dass die T-Systems-Tüftler schon ihren nächsten Coup in Planung haben. Folglich entstehen im sogenannten Dauerlauf – das sind Langzeittests durch raues Wüstengelände, tropische Schwüle oder die arktische Kälte – riesige Datenmengen gerade in unwirtlichen Gegenden, bei denen selbst eine zukünftige 5G-Versorgung an ihre Grenzen käme. Deshalb arbeitet Christoph G. Jung mit seinen Kollegen an einem mobilen Cluster, also einer Art transportablem klimatisiertem Minirechenzentrum. Dieses lässt sich auch an die entlegensten Orte der Welt verschiffen und betreiben. „Dort kommt dann ebenfalls unsere Erfindung zum Einsatz und funkt die komprimierten Ergebnisse der Analysen zeitnah in die Firmenzentralen der Autobauer“, berichtet Erik Redl, Kopf der BigAnalyTics-Abteilung von T-Systems.

Die Prinzipien einer erfolgreichen Datenernte sind dabei so grundlegend, dass sie sich auch nahtlos auf andere Industrien übertragen lassen. Beispielsweise im Schienenverkehr, um mittels unter den Zügen angebrachter Kameras Störungen, Defekte oder bauliche Mängel des Gleisbetts aufzudecken. „Wir haben unsere Lösung nun ebenfalls auf mehrstündige Videodateien übertragen können und lassen diese von Hunderten Rechnerkernen parallel auswerten“, beschreibt Christoph G. Jung die fortschreitende Entwicklung. Ergebnis: ähnlich starke Zeitgewinne wie bei den Autobauern.

Automatisiertes Fahren – KI und neuronale Netze für menschliche Stärken im Kfz

Automatisiertes Fahren – KI und neuronale Netze für menschliche Stärken im Kfz

11.06.18 - Für die Übernahme menschlicher Aufgaben spielt KI eine große Rolle. Fahrzeuge sollen nun mit Hilfe einer neuen Computer-Vision-Plattform in der Lage sein, komplexe und nicht vorhersehbare Verkehrssituationen zu interpretieren. lesen

Kryptographie im KFZ: Bremst die Security unser System aus?

Kryptographie im KFZ: Bremst die Security unser System aus?

02.05.18 - Kryptographie gewinnt für Automotive Cyber Security an Bedeutung. Welche Auswirkungen haben Verschlüsselungsverfahren aber auf die Performance solcher sicherheitskritischen embedded Systeme? lesen

* Der Beitrag erschien im Original im T-Systems-Magazin "Best Practice"

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45436173 / Software Engineering)