Echtzeitdaten sollen Unfälle bei autonomen Fahrzeugen verhindern
Automatische Fahrzeuge sollen den Straßenverkehr der Zukunft revolutionieren. Das wichtigste Problem ist dabei jedoch: Sie dürfen keine Unfälle verursachen. Die Folge wären sonst – neben dem Schaden durch den Unfall selbst – womöglich aufwendige Gerichtsprozesse und bei Verurteilung hohe Schadensersatzforderungen für die Hersteller. Forscher und Industrie arbeiten daher daran, die Algorithmen ihrer Fahrzeuge zuverlässig und gerichtsfest zu entwickeln und zu prüfen. Bis jetzt setzten sie darauf, die erlernten oder programmierten Entscheidungen vorab auf ihre Übereinstimmung mit den Verkehrsregeln zu testen. Forscher der Technischen Universität München schlagen nun im Fachblatt „Nature Machine Intelligence“ (siehe Primärquelle) ein Verfahren vor, das diesen Test während der Fahrt, sozusagen live, durchführt. Aus ihrer Sicht kann dieses System so auch Situationen bewältigen, die während der Konstruktion nicht bedacht wurden oder im Testbetrieb nicht vorkamen. Dadurch werde das Fahrzeug laut dem Autorenteam stets juristisch sicher entscheiden, selbst wenn es trotzdem durch den Fehler eines anderen Verkehrsteilnehmers in einen Unfall verwickelt würde.
Leiter des Fachgebiets Fahrzeugtechnik, Technische Universität Darmstadt
„Die Arbeit reiht sich ein in eine Reihe, im Detail dann doch wieder unterschiedliche Ansätze, um die Verhaltensplanung autonomer Fahrzeuge – also die Entscheidung über Art und Weise des zukünftigen Manövers – per Design sicher zu gestalten. Die Implementierung für Beispielszenarien auf Basis ‚echter‘ Sensordaten bedeutet schon ein hohes Niveau für die Umsetzung des Ansatzes. Mit einem solchen ist die Verhaltensplanung nahezu ‚gerichtsfest‘, da auf eine verifizierte Weise geplant wird.“
„Der Einsatz einer Fail-Safe-Trajektorie ist nicht einzigartig, da er beispielsweise auch im UNICARagil-Projekt [1] vorgesehen ist, wenn auch dort in vielen Details anders umgesetzt und teilweise anderen Zielen dienend.“
„Die Berechnung vor Ort im Auto ist essenzieller Bestandteil dieses Konzepts und damit zwingend notwendig. Dafür müssen Hard- und Software entsprechend ausgelegt sein, aber das stellt im Vergleich zur Rechenleistung für die vorgelagerten Schritte für die Umfeldmodellierung aus meiner Sicht keine besondere Herausforderung dar.“
„Das Grundproblem dieses ansonsten sehr nützlichen Ansatzes einer Verifikation ist, dass diese auf Annahmen beruht, deren Validität erst nach einer langen Erfahrungszeit bewertet werden kann. Die Annahmen mögen sich für eine kurze Passage im öffentlichen Straßenverkehr – wie hier dargestellt – durchaus bewähren, aber was ist das schon im Vergleich zu den Milliarden Kilometern, die man für einen aussagekräftigen Erfahrungsschatz benötigt? Insbesondere die Qualität der internen Umfeldmodellierung, in der die Informationen aus den Umfeldsensoren einfließen, lässt sich mit diesem Ansatz nicht bewerten. Und an dieser Stelle liegt im Moment noch ‚der Hase im Pfeffer‘. Kurzgefasst: für die Verhaltensplanung eine bedeutende Arbeit, für die Sicherheitsaussage zum autonomen Fahren aber noch viel zu wenig für den genannten Anspruch.“
Auf die Frage, ob das Verhindern von Unfällen, wenn andere Verkehrsteilnehmer sich legal verhalten, überhaupt den Großteil der Unfälle abdeckt und wie Unfälle verhindert werden können, wenn andere Verkehrsteilnehmer sich illegal verhalten:
„Für jedwede Aussage dazu fehlt die Grundlage für eine Abschätzung, da Beinahe-Unfälle im Straßenverkehr nicht aufgezeichnet werden (anders als in der Luftfahrt). Deshalb könnte durchaus folgendes Szenario entstehen: Die Zahl der von autonomen Fahrzeugen verursachten Unfälle liegt deutlich unter der Zahl der von Menschen verursachten Unfälle (beispielsweise im Streckenvergleich), aber die Zahl der Unfälle, in denen autonome Fahrzeuge involviert sind, liegt weit höher als bei von Menschen geführten Fahrzeugen, weil letztere möglicherweise die Verhaltensfehler der anderen Menschen besser antizipieren und damit ausbügeln können. Ohne umfänglichen Praxiseinsatz können wir dazu prinzipbedingt keine Aussage treffen.“
Wissenschaftlicher Direktor Agenten und Simulierte Realität, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI), Saarbrücken
„Generell geht der Artikel in die richtige Richtung, da wir dazu kommen müssen, Garantien über das Verhalten von KI-Systemen abgeben zu können. Das ist bisher oft nicht der Fall und dann selbstverständlich ein großes Problem, wenn gegebenenfalls auch Menschenleben davon abhängen. Deshalb sollte die Forschung hier noch deutlich weiter vorangetrieben werden. Das ist eines der zentralen Themen unserer Arbeit am DFKI.“
„Der Artikel betrifft dann allerdings nur einen sehr kleinen Teil des Problems des autonomen Fahrens, nämlich die Trajektorienplanung, also die Wegeplanung nachdem man annimmt, dass man die Umwelt genau und korrekt erkannt hat. Auch dann macht der Ansatz starke Einschränkungen, dass er nur rechtlich erlaubte Bewegungen für die anderen Verkehrsteilnehmer annimmt. Wie wir alle wissen, ist das aber im täglichen Verkehr nicht immer gegeben – etwa, wenn ein Auto über eine durchgezogene Linie fährt, um einem in zweiter Reihe parkenden Fahrzeug auszuweichen. Ohne solches Verhalten würde der Verkehr nur sehr schlecht funktionieren. Der Ansatz berücksichtigt solches Verhalten von vorne herein gar nicht und würde daher mit einem solchen Fahrzeug zusammenstoßen, was glaube ich nicht sinnvoll ist.“
„Innerhalb des eng gesetzten Problems der Verifikation von Trajektorien ist der Ansatz aber scheinbar durchaus sinnvoll – ich bin da allerdings kein Experte –, obwohl auf die genauen Methoden zur Verifikation nur oberflächlich eingegangen wird. Ähnliche Ansätze gibt es aber zum Beispiel auch mit den Traffic-Sequence-Charts von Prof. Damm und Kollegen von der Universität Oldenburg und anderen. Komplett neu ist also nicht der Ansatz, sondern vor allem die konkrete Umsetzung.“
„Mein Hauptproblem mit dem Ansatz ist aber, dass er davon ausgeht, dass es ein akkurates Bild der Umgebung als Input bekommt. In diesem Bereich liegen die größten Probleme beim autonomen Fahren. Wenn ein Hindernis nicht als solches erkannt wird – wie beim bekannten Uber-Unfall oder immer wieder bei Teslas mit statischen Hindernissen – oder bei einer Fehlinterpretation an komplexen Kreuzungen oder Baustellen, dann bekommt das Verfahren falschen Input und geht von falschen Voraussetzungen aus und kann daher nur fragwürdige Ergebnisse liefern (‚Garbage In – Garbage Out‘). Aus meiner Sicht liegen an diesem Punkt die eigentlichen Probleme beim autonomen Fahren.“
Wissenschaftlicher Mitarbeiter, Arbeitsgruppe Elektronische Fahrzeugsysteme, Technische Universität Carolo-Wilhelmina zu Braunschweig
„Ich halte das in der Studie vorgestellte Framework, technisch gesehen, für einen wichtigen Beitrag zum Stand der Forschung, wäre mit den Schlussfolgerungen persönlich aber deutlich vorsichtiger. Wenn sich verifizieren lässt, dass ein automatisiertes Fahrzeug von sich aus keine Form der Bewegung planen kann, die eine Kollision verursachen, ist das selbstverständlich ein sehr wertvoller Beitrag zu einem Sicherheitsargument. Gleichzeitig hängt der Nutzen der Verifikation, wie die Autoren auch selbst schreiben, entscheidend von den Modellannahmen ab, die für andere Verkehrsteilnehmer, aber auch für das automatisierte Fahrzeug selber getroffen werden.“
„Geht man davon aus, dass sich alle Verkehrsteilnehmer regelkonform verhalten, dann liefert das Framework eben keine garantiert kollisionsfreie Trajektorie, sobald sich jemand nicht an die programmierten Regeln hält. So etwas kommt im täglichen Verkehr allerdings immer wieder vor – zum Beispiel das Überfahren durchgezogener Linien oder Sperrflächen, weil jemand in zweiter Reihe geparkt hat.“
„Damit hat das Framework den gleichen Nachteil wie jeder andere modellbasierte Ansatz auch: Eine Aussage ist am Ende so belastbar wie die schlechteste Modellannahme.“
„Den Titel und auch das Abstract der Studie kann man, gerade wenn man nicht vom Fach ist, so lesen, dass das Framework dafür sorgt, dass ein automatisiertes Fahrzeug keine Unfälle mehr verursachen kann. Absolute Sicherheit, dass ein automatisiertes Fahrzeug niemals und in keiner Situation einen Unfall verursacht, garantiert das Framework aber aus den oben genannten Gründen nicht.“
„Das stellt allerdings nicht die grundsätzliche Nützlichkeit des Frameworks in Frage, sondern ist für mich eine Frage der Argumentation: Warum werden die verwendeten Modelle wie parametrisiert? Die Frage ist aber in meinen Augen für eine Sicherheitsargumentation hinterher genauso wichtig, wie die eingesetzten Algorithmen selbst.“
Alle: Keine Angaben erhalten.
Primärquelle
Pek C et al. (2020): Using online verification to prevent autonomous vehicles from causing accidents. Nature Machine Intelligence. DOI: 10.1038/s42256-020-0225-y.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] UNICARagil (o.J.): Projektinformationen.
Prof. Dr. Hermann Winner
Leiter des Fachgebiets Fahrzeugtechnik, Technische Universität Darmstadt
Prof. Dr. Philipp Slusallek
Wissenschaftlicher Direktor Agenten und Simulierte Realität, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI), Saarbrücken
Marcus Nolte
Wissenschaftlicher Mitarbeiter, Arbeitsgruppe Elektronische Fahrzeugsysteme, Technische Universität Carolo-Wilhelmina zu Braunschweig