Suchen

Grundlagen des Autonomen Fahrens: Teil 6

| Autor/ Redakteur: Marc Patrick / Benjamin Kirchbeck

Autonome Fahrzeuge sollen die Unfallzahlen künftig erheblich senken. Doch es droht die Gefahr moralischer Dilemmata und die Problematik einer unterschiedlichen Priorisierung, abhängig von der jeweiligen Herkunft.

Firmen zum Thema

(Bild: Mouser)

Wenn wir uns hinter das Steuer eines Autos setzen, denken wir oft nur daran, wohin wir fahren, wie lange die Fahrt wohl dauern wird und auf welcher Strecke es am wenigsten Stau gibt. Es kann jedoch sein, dass auf unserer Fahrt etwas Unvorhergesehenes passiert. Dann müssen wir entsprechend reagieren – zum Beispiel, wenn ein Auto uns die Vorfahrt nimmt oder ein Kind auf die Straße läuft. Wir können dann (basierend auf der Situation und unserer Erfahrung) schnell entscheiden, Maßnahmen zu ergreifen, um die Gefahr möglichst zu minimieren, indem wir entweder auf die Bremse treten oder ausweichen, um einen Zusammenstoß zu vermeiden.

Dank fortschrittlicher 3D-Bildgebungstechnologie (LiDAR und ToF), sowie Daten von Infrastruktur und anderen Verkehrsteilnehmern in der Umgebung (per V2V-/V2I-Kommunikation) können autonome Fahrzeuge potenzielle Gefahren leichter abwenden als menschliche Fahrer. Die Fehleinschätzungen, die wir alle treffen (unabhängig davon, wie viel Erfahrung wir haben), sowie die Möglichkeit der Ablenkung zum falschen Zeitpunkt werden eliminiert.

Fahrzeughersteller, ihre Tier-One-Lieferanten und Chiphersteller investieren stark in die Gestaltung und Entwicklung von Hardware, die Autonomes Fahren in Zukunft möglich machen wird. Mit dem Fortschritt von Systemen und dem steigenden Grad an Autonomie müssen jedoch vollkommen neue ethische Fragen diskutiert werden, die Verkehrsteilnehmer, Gesetzgeber und die Branche als Ganzes betreffen.

Ein wichtiges Thema ist beispielsweise der Umgang von KI-Technologie (Künstliche Intelligenz), die in die nächste Generation an Fahrzeugen integriert wird, mit unterschiedlichen Unfallszenarien – insbesondere die Entscheidung in Situationen, in denen ein Schaden sich nicht vermeiden lässt.

Leben oder Tod

Zahlreiche Situationen sind denkbar. Stellen Sie sich zum Beispiel vor, das Fahrzeug muss sich entscheiden, ob es mit einem Bus kollidiert, der auf die Gegenfahrbahn geraten ist und in dem sich viele Menschen befinden, oder auf den Bürgersteig ausweicht und eine Mutter mit Kind überfährt. Wie soll es reagieren? Dieses Szenario ist extrem, doch die Algorithmen des Fahrzeugs müssen in der Lage sein, damit umzugehen und sofort eine Lösung zu finden.

Bisher war Deutschland scheinbar am proaktivsten bei der Thematisierung dieser Probleme und hat bereits einen ethischen Verhaltenskodex für autonome Fahrzeuge entwickelt. 2017 hat die Ethikkommission des Bundesministeriums für Verkehr und digitale Infrastruktur einen umfassenden Bericht über automatisiertes und vernetztes Fahren erstellt. In diesem wird erläutert, wie autonome Fahrzeuge in scheinbar ausweglosen Situationen wie der eben beschriebenen reagieren sollen. Er erklärt, dass der Schutz von Menschenleben bei der Abwägung rechtlich geschützter Interessen höchste Priorität hat. Deshalb müssen Systeme so programmiert werden, dass sie Schäden von Tieren oder Eigentum im Zweifelsfall akzeptieren, wenn dadurch ein Personenschaden verhindert werden kann.

In Zukunft könnte dieser hierarchische Ansatz, bei dem Menschen an oberster und unbelebte Objekte an unterster Stelle stehen, universell implementiert werden. Dadurch würde ein größeres Augenmerk auf die Schutzbedürftigkeit von Verkehrsteilnehmern gelegt werden – zum Beispiel zuerst Fußgänger, dann Radfahrer, anschließend Autos mit Insassen und schließlich Lastwagen.

In dem deutschen Modell, wäre im Fall eines nicht vermeidbaren Unfalls jedoch keine Unterscheidung auf Basis von Alter, Geschlecht oder physischem bzw. psychischem Zustand erlaubt, und es wäre ebenso verboten, potenzielle Opfer gegeneinander aufzurechnen. In einer Situation, in der ein Zusammenstoß mit Menschen nicht verhindert werden kann, müsste das System in Aktion treten, um die negativen Auswirkungen (d. h. die Anzahl der Todesopfer) zu minimieren.

Möglicherweise wird dieser egalitäre Ansatz in anderen Regionen jedoch nicht befürwortet, da in anderen Teilen der Welt andere Prioritäten gesetzt werden. In einer Umfrage haben Forscher des MIT untersucht, wie Fahrzeuge auf unterschiedlichen Märkten weltweit die Sicherheit bestimmter Gruppen priorisieren. Das „Moral Machine Experiment“ hat Feedback von über 2 Millionen Menschen in 200 verschiedenen Ländern gesammelt.

Die Ergebnisse zeigen wie erwartet einen allgemeinen Konsens: Es werden vorzugsweise Menschen statt Tiere, Viele statt Wenige und Junge statt Alte gerettet. Regional wurden jedoch bestimmte Unterschiede deutlich. Während es zum Beispiel fast überall auf der Welt eine starke Tendenz gab, eher junge als ältere Menschen zu schützen, wurde in Ländern im fernen Osten Letzteren der Vorrang gegeben. Basierend darauf müssen zentrale KI-Algorithmen in autonomen Fahrzeugen gegebenenfalls angepasst werden, um internationalen kulturellen/ethischen Implikationen Rechnung zu tragen.

Wer hat Schuld?

Ein Bereich, in dem ebenfalls Klarheit geschaffen werden muss, ist die Frage: Wer hat Schuld an einem Unfall? Dies könnte der Automobilhersteller, das Softwareunternehmen, das die KI-Algorithmen entwickelt hat, der Telekommunikationsdienstleister, der für die V2V-/V2I-Kommunikation zuständig ist, oder jede andere Partei sein, die auf irgendeine Art und Weise an der Entwicklung des Fahrzeugs oder dem Betrieb der unterstützenden Infrastruktur beteiligt war.

Trotz der Komplexität und der genannten Schwierigkeiten bei Untersuchungen bieten autonome Fahrzeuge bei der Beantwortung jeder gestellten Frage einen entscheidenden Vorteil: die Menge an Daten, die sie über ihre Umgebung und ihre betrieblichen Parameter vor einem Zwischenfall aufzeichnen.

Kalifornische Behörden verpflichten Unternehmen mit autonomen Testfahrzeugen bereits, Daten von den integrierten Sensoren für 30 Sekunden vor jedem Unfall an das Department of Motor Vehicles zu übermitteln. Auf diese Weise können Zwischenfälle einfacher rekonstruiert und die Schuld kann leichter festgestellt werden.

Ziel ist es, dass autonome Technologie Unfälle in Zukunft eliminiert oder zumindest auf nahezu null reduziert. Dies wird wahrscheinlicher, wenn auf unseren Straßen nur noch autonome Fahrzeuge unterwegs sind, die alle miteinander kommunizieren. Doch auch dann können Programmierungsfehler, Betriebsunterbrechungen, die Bedrohung durch Hacker und verschiedene andere Dinge weiterhin die Sicherheit von Verkehrsteilnehmern gefährden.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46224916)