Zum Hauptinhalt springen
25.05.2018

Unfall von Roboterauto: Sicherheitskonzept für Testfahrten wirft nach vorläufigem Bericht Fragen auf

Das National Transportation Safety Board (NTSB) hat einen vorläufigen Bericht über den Unfall eines Autos des amerikanischen Unternehmens Uber vom 18. März veröffentlicht. Das größte Fragezeichen scheint demnach weniger bei der Technik zu liegen, die ja noch im Entwicklungsstadium ist, sondern beim Sicherheitskonzept, nach dem diese Fahrten auf öffentlichen Straßen durchgeführt werden. Den Bericht finden Sie hier.

Übersicht

  • Martina Raue, Ph.D., Post-Doctoral Associate, Age Lab, Massachusetts Institute of Technology
  • Prof. Dr. Raúl Rojas, Leiter des Dahlem Center for Intelligent Systems, Freie Universität Berlin

Statements

Martina Raue, Ph.D.

Post-Doctoral Associate, Age Lab, Massachusetts Institute of Technology

„Beim Unfall des Uber-Autos in Arizona hat die Sicherheitsfahrerin nicht rechtzeitig eingegriffen, weil sie innerhalb des Fahrzeuges nach unten gesehen hat, um eines der Systeme in der Mittelkonsole zu überwachen. Generell stellt der Anspruch an die Sicherheitsfahrer, sowohl die Straße als auch die Monitore innerhalb des Fahrzeuges zu kontrollieren, aus kognitionspsychologischer Sicht eine große Herausforderung dar. Eine entscheidende Frage wäre daher wie die Sicherheitsfahrer ausgebildet werden und welche Voraussetzungen sie erfüllen müssen.“

„Zieht man den Vergleich mit Piloten heran, so wird klar, dass die Überwachung zahlreicher Systeme und umgehendes Reagieren im Notfall eine aufwändige Ausbildung sowie überdurchschnittliche kognitive Fähigkeiten erfordern. Im Unterschied zu Sicherheitsfahrern müssen Piloten allerdings keinen komplexen und oft unvorhersehbaren Straßenverkehr im Auge behalten, sie bekommen zudem Unterstützung von Fluglotsen, die den Flugverkehr kontrollieren.“

„Es ist unklar, wie viele Systeme ein Sicherheitsfahrer überwachen soll. Es scheint, dass von den Sicherheitsfahrern möglicherweise mehr verlangt wird, als sie leisten können. Durchlaufen die Sicherheitsfahrer zum Beispiel Simulationstrainings, um richtiges Reagieren im Notfall zu trainieren? Um einer kognitiven Überlastung vorzubeugen, sollten Abläufe so gut trainiert sein, dass sie möglichst intuitiv ablaufen.“

„Außerdem ist es meiner Meinung nach elementar, dass der Fahrer das System nicht nur visuell überwacht, sondern auch akustische Signale genutzt werden, um das visuelle System des Fahrers zu unterstützen und dessen sofortige Aufmerksamkeit zu erhalten. Laut Uber (im NTSB Bericht) verlässt sich das System im Computermodus vollständig auf den aufmerksamen Sicherheitsfahrer, der eingreifen soll, wenn das System versagt und der zudem Nachrichten auf dem Bildschirm in der Fahrzeugmitte überwachen soll.“

„Beim aktuellen Unfall scheint das System nicht versagt zu haben, aber wurde der Fahrer über das unbekannte Objekt informiert, und wenn ja wie? Warum sind der akustische Alarm und die automatische Notbremse abgeschaltet, wenn das System im Computermodus fährt? Die Gründe für das Abschalten des akustischen Signals werden aus dem NTSB Bericht nicht ersichtlich.“

„Die Frage ist aber vor allem, kann der Fahrer dem Anspruch der vollständigen System- und Straßenüberwachung gerecht werden? Menschen sind dem selbstfahrenden Auto darin überlegen mit unvorhergesehen Situationen umzugehen und flexibel zu reagieren. Menschen sind allerdings in ihren kognitiven Kapazitäten beschränkt. Besonders unter Zeitdruck oder bei Überforderung (zum Beispiel durch zu viel Informationen) wird analytisches Denken schwierig und der Mensch verlässt sich auf seine Intuition oder einfache Heuristiken, die Entscheidungen vereinfachen. Bei der Ausbildung der Sicherheitsfahrer und deren Interaktion mit einer Maschine muss daher berücksichtigt werden, was der Mensch leisten kann und was nicht.“

„Aber neben der genannten Überforderung des Sicherheitsfahrers können auch Unterforderung sowie Gewöhnungseffekte zum Problem werden. Der Sicherheitsfahrer war laut NTSB-Bericht seit 19 Minuten im automatischen Modus, ohne besondere Vorkommnisse. Es ist anzunehmen, dass die Aufmerksamkeit mit längerer Fahrdauer ohne Zwischenfälle abnimmt, was den Bedarf zusätzlicher akustischer Signale untermauert.“

Prof. Dr. Raúl Rojas

Leiter des Dahlem Center for Intelligent Systems, Freie Universität Berlin

„Das National Transportation Safety Board (NTSB) hat einen vorläufigen Bericht zum Uber-Unfall vom 18. März vorgelegt. Der Bericht ist verheerend für Uber, da die überfahrene Passantin ganze sechs Sekunden vor dem Unfall als Objekt auf der Fahrbahn erkannt wurde, aber erst 1,3 Sekunden vor der Kollision diese von der Software als unvermeidlich eingestuft wurde. Aber sogar in dem Fall hat das Auto nicht gebremst, da Uber sich in solchen Situationen zu 100 Prozent auf die Aufmerksamkeit des Sicherheitsfahrers verlässt und die Software nicht mal eine akustische Warnung erzeugt!“

„Gute Software für autonome Fahrzeuge hätte bereits bei der ersten Messung der Passantin ihre Trajektorie (Weg und Geschwindigkeit; Anm. d. Red.) vorhersagen und die Kollision viel früher erkennen können. Nicht zu bremsen, auch wenn die Kollision unvermeidlich ist, deutet daraufhin, dass Uber seiner eigenen Software nicht vertraut und dass Erkennungsfehler zu häufig zu ungewünschten Bremsvorgängen im Verkehr führen würden – mit dem Risiko eines Aufpralls von hinten.“

„Ein Sicherheitsfahrer muss immer auf die Straße blicken und die Behauptung, dass Ubers Sicherheitsfahrerin die Automatik 'überwacht' hat, ist absurd. Auf akustische Warnungen oder ein leichtes Zucken der Bremse zu verzichten – wie herkömmliche Fahrassistenzsysteme es tun – war eine absurde Designentscheidung der Uber-Ingenieure.“

„Generell gilt, dass autonome Fahrzeuge im Entwicklungsstadium immer akustische und mechanische Warnungen von Kollisionen – zum Beispiel mit Vibration der Lenkung, vom Sitz oder durch sehr kurzes Bremsen – geben sollten. Das alles ist sogar beim Volvo vorhanden, bei dem die Fahrassistenzsysteme von Uber ausgeschaltet wurden.“

„Der Bericht vom NTSB bestätigt, was bereits früher vermutet wurde: Die Sensoren des Autos haben funktioniert, die Software-Steuerung des Fahrzeugs hat aber versagt. Das Sicherheitskonzept von Uber war mangelhaft, da auf Warnungen für den Sicherheitsfahrer verzichtet wurde.“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Raúl Rojas: "Ich habe keinen Interessenkonflikt"
Alle: Keine angegeben.

Primärquelle

National Transportaion Safety Board (2018): Preliminary Report Highway HWY18MH010.