Wie sicher müssen automatische Autos fahren, bevor sie zugelassen werden?
Wenn es um die gesellschaftliche Akzeptanz automatisch fahrender Autos geht, führen Politiker wie Wissenschaftler an, dass Roboterautos sicherer fahren als Menschen. Sehr viele Unfälle mit Verletzten oder Toten könnten so vermieden werden. Das Problem ist jedoch: Der Nachweis dieses Arguments ist sehr schwer – statistisch müssten die Fahrzeuge dafür nach Ansicht von Experten unter Umständen sogar Milliarden Test-Kilometer zurücklegen. Forscher entwickeln daher im Rahmen des Forschungsprojekts „Pegasus“ neue Wege, um die Sicherheit automatischer Autos auch ohne Großversuche auf Straßen nachzuweisen. Am Mittwoch, den 08.11.2017 stellten die Wissenschaftler ihre Halbzeitergebnisse in Aachen vor.
Leiter des Dahlem Center for Intelligent Systems, Freie Universität Berlin
„Normalerweise wird verlangt, dass ein autonomes Fahrzeug Millionen von Kilometern fährt, um es mit menschlichen Fahrern vergleichen zu können (da nur bei Millionen von gefahrenen Kilometer die Anzahl der Verkehrsunfälle statistisch signifikant verglichen werden können). Jedoch kann man statt eines Autos 1000 testen. Jeder Wagen braucht dann nur noch 100.000 Kilometer zu fahren, um insgesamt 100 Millionen gefahrenen Kilometer zu erreichen. Beide Methoden sind aber teuer.“
„Das Problem mit der RAND-Studie ist jedoch, dass es eine ‚statische Welt’ voraussetzt. Die Studie vergleicht autonome Fahrzeuge (AF) mit den heutigen Fahrern.“
„Die Technologie für AF wird aber schleichend zuerst in Fahrassistenzsysteme eingebaut: Automatische Notbremssysteme, Spurhaltesysteme, Unterbindung von Spurwechseln, wenn dies zu Unfällen führen würde, usw. Das heißt, der heutige Vorteil des Menschen gegenüber den noch ‚dummen’ AF wird zuerst einmal ‚wachsen’, da jeder Fahrer einen Computer-Copiloten zur Seite haben wird.“
„In der statischen Welt von RAND gibt es die heutigen Fahrer in ‚non-smarten‘ Fahrzeugen und die AF. In Wirklichkeit werden die Autos immer smarter und der Computer-Copilot wird viele Unfälle verhindern. Die ‚Baseline’ von RAND ist eine feste Größe, aber in Wirklichkeit ist es eine variable Größe.“
„Da die Technologie schleichend ins Auto kommt, werden: a) Leben damit gerettet und b) die Einzelfunktionen der Technologie in Millionen von gefahrenen Kilometern einzeln getestet. Deswegen sind die Berechnungen von RAND zwar phantasievoll, aber nicht richtig. Die Frage ist eher, wie viele Leben die Fahrassistenzsysteme in den nächsten Jahren retten werden, und ob AF auf das gleiche Niveau kommen können.“
Auf die Frage, ob automatisierte Fahrzeuge auch dann eingeführt werden sollten, wenn die Vorteile nur klein sind, wie es die RAND-Studie empfiehlt:
„Der Weg geht über die Fahrassistenzsysteme, die die Baseline ergeben werden. Fahrassistenz wird die Einführung der Technologie beschleunigen. 10 Prozent besser sein als ein assistierter Fahrer von morgen, ist vielleicht 50 Prozent oder 60 Prozent besser als ein Fahrer von heute.“
„Es wird sowieso sehr schnell zugelassen, da alle Firmen in den Startlöchern stehen, allein in Kalifornien sind es um die 40.“
„Was in der RAND-Studie auch völlig außer Acht gelassen wird, ist die Telekommunikation. Vernetzte Fahrzeuge werden sich abstimmen können und zusätzlich noch die Anzahl der Unfälle verringern. Das spricht für eine schnelle Zulassung in Zukunft. Es ist noch viel zu tun, um die Technologie zur Reife zu bringen, aber die Studie ist zu statisch gedacht.“
Wissenschaftlicher Direktor und Vorstand, Institute of Advanced Sustainability Studies e.V. (IASS), Potsdam
Auf die Frage, warum es schwer ist nachzuweisen, ob automatisierte Autos sicherer fahren als Menschen:
„Dies ist ein statistisches Problem, wir haben zwar ausreichend Daten über menschliche Fahrer, aber nur wenige Daten über die Erfahrungswerte mit selbst fahrenden Fahrzeugen. Da Unfälle pro gefahrene Kilometer sehr selten sind, lassen sich aus den wenigen Daten über selbstfahrende Fahrzeuge bisher keine verlässlichen Ausfallstatistiken und Unfallwahrscheinlichkeiten ableiten.“
„Was wir bisher haben, sind meist Expertenschätzungen. Die Daten von selbstfahrenden Fahrzeugen beziehen sich meist auf Testfahrzeuge in begrenzten Umfeldern. Daraus lässt sich für die allgemeine Fahrpraxis noch wenig ableiten.“
„Die Unfallstatistik verändert sich zudem, je mehr selbstfahrende Fahrzeuge und je weniger menschengesteuerte Fahrzeuge parallel existieren werden. Vor allem in der Übergangsphase rechnen wir mit mehr Unfällen, weil sich beide Systeme erst aufeinander einstellen müssen.“
Auf die Frage, ob automatisierte Fahrzeuge auch dann eingeführt werden sollten, wenn die Vorteile nur klein sind, wie es die RAND-Studie empfiehlt:
„Da wäre ich vorsichtig: zum einen wird es auch bei einem Nachweis immer statistische Schwankungen geben, die eine eindeutige Besserstellung automatisierter Fahrzeuge nicht präjudizieren. Zum anderen werden schwere Unfälle, die von einem selbstfahrenden Fahrzeug verursacht werden, medial wesentlich stärker hervorgehoben und erhalten von daher auch mehr Aufmerksamkeit. Vor allem, wenn Fahrer hätten eingreifen können und der Maschine gutgläubig vertraut haben, ergeben sich machtvolle Narrative, die für die Akzeptanz schwerwiegende negative Folgen haben können.“
Leiter am Institut für Technikfolgenabschätzung und Systemanalyse, Karlsruher Institut für Technologie (KIT)
„Ob automatisierte Fahrzeuge sicherer fahren als der Mensch, kann zurzeit nur durch Plausibilitätsüberlegungen und Simulationen eingeschätzt werden. Erfahrungsgemäß entstehen jedoch oft bei der Implementation von Technik in komplexe soziale Konstellationen Probleme, gelegentlich auch Chancen, an die vorher keiner gedacht hat. Das gilt insbesondere für Systemeffekte in sozio-technischen Infrastrukturen wie dem mit autonom fahrenden Fahrzeugen zu erwartenden Mischverkehr. Hier muss die empirische Basis für Sicherheitseinschätzungen durch Feldexperimente allmählich gesteigert werden – allmählich, damit aus auftretenden problematischen Situationen möglichst gut für die weitere Entwicklung gelernt werden kann.“
„Wenn die sicherheitsbezogenen Verbesserungen klar erwiesen sind, dann sind sie ein gutes Argument für die Einführung auch dann, wenn diese Verbesserungen klein sind. Auch kleine Verbesserungen hinsichtlich Unfällen, Verletzten und Toten sind ethisch geboten. Freilich muss die Einführung das Gesamtspektrum der Argumente beachten, auch über die Sicherheitsfrage hinaus.“
Technische Universität Carolo-Wilhelmina zu Braunschweig
„Automatisierte Fahrzeuge werden von sehr komplexen Softwaresystemen geführt. Sie bewegen sich in vielfältigen Situationen, in denen auch viele andere Akteure unterwegs sind, die sich nur teilweise an bestehende Regeln halten. Damit ist eine sehr komplexe Aufgabe kurz umrissen, deren Lösung ebenfalls sehr komplex ist. Entsprechend viele Unsicherheiten ergeben sich. Hier nur einige Beispiele:
„Die Studie ist sicher ein interessanter Input für die Diskussion der Sicherheit von autonomen Fahrzeugen. Allerdings geht sie davon aus, dass die Sicherheit nur dadurch verbessert werden kann, dass autonome Fahrzeuge im realen Verkehr ‚Erfahrung sammeln’. Das muss man aus mehreren Gründen deutlich zurückweisen.“
„So ist es zum Beispiel durchaus möglich, die Sicherheit auch durch Simulationen von Gefahrensituationen im Computer zu erhöhen. Mit diesem Ansatz kann man gezielt fast beliebig viele Varianten von kritischen Situation simulieren (z.B. ‚Kind läuft vors Auto’) und so die Sicherheit in diesen Situationen gezielt verbessern.“
„Letztlich kann damit eine große Aufgabensammlung für eine ‚Führerscheinprüfung für autonome Fahrzeuge’ entwickelt werden, die jedes autonome Fahrzeug bestehen muss, bevor es zugelassen wird. So wird Sicherheit objektivierbar und nachprüfbar.“
Auf die Frage, ob automatisierte Fahrzeuge auch dann eingeführt werden sollten, wenn die Vorteile nur klein sind, wie es die RAND-Studie empfiehlt:
„Das ist eine zentrale Frage des automatisierten Fahrens, unabhängig von dem Rand-Bericht. 2013 auf einer Pressekonferenz habe ich sie wie folgt formuliert: ‚Wie sicher müssen autonome Fahrzeuge sein, damit sie in der Gesellschaft akzeptiert werden’. Sie sehen die Verwandtschaft beider Fragen und die Unterschiede. Zunächst ist ja die Frage, welcher Mensch die Messlatte darstellt: der durchschnittliche Fahrer oder beispielsweise die besten zwei Prozent der Fahrer? Die Ethikkommission zum automatisierten und vernetzten Fahren des BMVI stellte im Sommer 2017 fest, dass die Frage: ‚wie viel sicherer muss ein technisches System statistisch gesehen sein, damit es von der Gesellschaft akzeptiert wird’, noch diskutiert und entschieden werden muss.“
„Dazu kommt: Ein System wird unterschiedliche Stärken und Schwächen haben als ein Mensch. Kleine Vorteile werden gepaart mit kleinen (oder größeren) Nachteilen einhergehen. Die Ethik-Kommission bezieht sich auf ein statistisches Maß, das aber ebenfalls noch nicht definiert ist. Lassen Sie mich daher schließen mit einem Zitat meines Kollegen Achim Enders, der sich im Hauptberuf mit elektromagnetischer Verträglichkeit an der TU Braunschweig beschäftigt. Als Vorsitzender eines Promotionsverfahrens zum Thema meinte er lapidar (aus dem Gedächtnis zitiert): ‚Nach meiner Erfahrung müssen automatisierte Systeme um ein (Faktor 10) bis zwei (Faktor 100) Größenordnungen zuverlässiger sein als manuell betriebene Systeme, die ähnliche Aufgaben lösen’.“
„Und das alles ohne extrem viele Kilometer ‚Erfahrung’ sammeln zu müssen - was ja letztlich nicht weniger heißt, als Unfälle z.B. mit Kindern gezielt in Kauf zu nehmen, nur um daraus lernen zu können. Den Verlust von Menschenleben durch Maschinen sollten wir nur dort in Kauf nehmen, wo das technisch unvermeidlich ist. Das ist hier nicht der Fall!“
„Was auch meist ignoriert wird: Nach einiger Zeit bringen die gefahrenen Kilometer quasi keine neuen Informationen mehr, da fast alle vorkommenden Situationen schon bekannt sind. Das gezieltes Absichern genau der kritischen Situationen durch Simulationen ist hier sicher sehr viel zielführender und auch effizienter.“
Wissenschaftlicher Direktor Agenten und Simulierte Realität, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI), Saarbrücken
„Die Studie ist sicher ein interessanter Input für die Diskussion der Sicherheit von autonomen Fahrzeugen. Allerdings geht sie davon aus, dass die Sicherheit nur dadurch verbessert werden kann, dass autonome Fahrzeuge im realen Verkehr ‚Erfahrung sammeln’. Das muss man aus mehreren Gründen deutlich zurückweisen.“
„So ist es zum Beispiel durchaus möglich, die Sicherheit auch durch Simulationen von Gefahrensituationen im Computer zu erhöhen. Mit diesem Ansatz kann man gezielt fast beliebig viele Varianten von kritischen Situation simulieren (z.B. ‚Kind läuft vors Auto’) und so die Sicherheit in diesen Situationen gezielt verbessern.“
„Letztlich kann damit eine große Aufgabensammlung für eine ‚Führerscheinprüfung für autonome Fahrzeuge’ entwickelt werden, die jedes autonome Fahrzeug bestehen muss, bevor es zugelassen wird. So wird Sicherheit objektivierbar und nachprüfbar.“
„Und das alles ohne extrem viele Kilometer ‚Erfahrung’ sammeln zu müssen - was ja letztlich nicht weniger heißt, als Unfälle z.B. mit Kindern gezielt in Kauf zu nehmen, nur um daraus lernen zu können. Den Verlust von Menschenleben durch Maschinen sollten wir nur dort in Kauf nehmen, wo das technisch unvermeidlich ist. Das ist hier nicht der Fall!“
„Was auch meist ignoriert wird: Nach einiger Zeit bringen die gefahrenen Kilometer quasi keine neuen Informationen mehr, da fast alle vorkommenden Situationen schon bekannt sind. Das gezieltes Absichern genau der kritischen Situationen durch Simulationen ist hier sicher sehr viel zielführender und auch effizienter.“
Wissenschaftlicher Leiter Niedersächsisches Datenschutzzentrum, Hochschule Osnabrück
„Autonome Autos fahren dann sicherer als Menschen, wenn sie weniger Verkehrsunfälle und -tote verursachen als menschliche Fahrer. Der sichere Nachweis einer Überlegenheit selbstfahrender Autos vor ihrer Markteinführung ist praktisch kaum möglich. Autonome Autos müssten hunderte Millionen Kilometer in Testumgebungen absolvieren, um sie mit der Leistung menschlicher Fahrer vergleichen zu können. Dies würde Jahre dauern. Zwar können die Autos vorher auch in Computersimulatoren getestet werden. Diese bilden die Komplexität der Welt aber immer nur näherungsweise ab, so dass auf Tests unter realen Bedingungen nicht verzichtet werden kann.“
„Hinzu kommt eine weitere Überlegung. Aktuell gehen über 90% der Unfälle auf menschliches Versagen zurück. An die Stelle menschlicher Fehler werden aber Technikfehler treten. Technik ist niemals fehlerfrei, insbesondere keine Softwaretechnik. Auch die Unberechenbarkeit menschlichen Verhaltens verschwindet nicht aus dem Straßenverkehr. Fußgänger und Fahrradfahrer gibt es ja weiterhin. Es wird auch noch lange Zeit Mischverkehr mit konventionellen Fahrzeugen geben. Neue Sicherheitsrisiken entstehen durch Hacking und Cyberkriminalität.“
„Wie schnell autonome Fahrzeuge auf die Straße gebracht werden sollen, hängt entscheidend von der gesellschaftlichen Bewertung möglicher Chancen und Risiken ab. Eine utilitaristische Sichtweise wird sich für die breite Einführung aussprechen, sobald die Fahrzeuge weniger Unfälle verursachen als Menschen. Eine prinzipiengeleitete Sichtweise, welche die menschliche Verantwortung für sein Handeln in den Mittelpunkt stellt, wird schon ein grundsätzliches Problem damit haben, dass Menschen durch Maschinen zu Schaden kommen.“
Anm. d. Red.: Der Autor gehört zum Kreis der Sachverständigen, die das Gesetz zum automatisierten Fahren für den Bundestag begleitet haben und im Verkehrsausschuss angehört worden sind.
Leiter des Fachgebiets Fahrzeugtechnik, Technische Universität Darmstadt
„Auf diesen Punkt habe ich schon 2009 erstmals hingewiesen und es paar Jahre später ‚Freigabefalle’ genannt. Damit ist gemeint, dass ein Nachweis durch Fahrerprobung praktisch ausgeschlossen ist; zum Beispiel, weil für den Nachweis ca. 10 Mrd. gefahrene Kilometer benötigt werden, um mit hoher statistischer Sicherheit zu beweisen, dass ein doppelt so sicheres System für Autobahnen tatsächlich sicherer ist.Alternative Nachweismethoden liegen nicht vor, obwohl daran gearbeitet wird, beispielsweise bei Pegasus. Letztendlich besteht keine Chance, vor Einführung des automatisierten Fahrens mit Level 3+ auf dem Niveau der heutigen Sicherheit (mit Menschen als Fahrer) eine Prognose abzugeben, dass die selbstfahrenden Fahrzeuge weniger Menschenleben gefährden. Trotzdem haben wir (Dr. Walther Wachenfeld und ich) aufgezeigt, dass eine dosierte Einführung mit Überwachung der Unfallzahlen ein akzeptables Risiko ermöglicht und somit der Nachweis der höheren Sicherheit dann erst im Feld erbracht werden kann. In diese Richtung zielen auch die Zulassungsvorschriften in den USA, die eine Höchstmenge vorsehen, die einerseits groß genug ist, um das Sicherheitsniveau zu ermitteln, und andererseits klein genug, dass wegen der großen ‚Verdünnung’ des Risikos keine merkliche Gefahr ausgehen kann, selbst wenn die Sicherheitsversprechen nicht eingelöst werden können.“
„Da die Sicherheit nur bei Einsatz im öffentlichen Straßenverkehr ermittelt werden kann, ist nur über eine dosierte Zulassung die Sicherheit zu messen. Trotzdem sollte vorab so viel wie möglich getestet werden, damit kein früher und vermeidbarer Rückschlag für die Technologie erfolgt. Im Grundsatz unterstütze ich diese These des Rand-Berichts, wenn auch die Argumentation und die Berechnungsmethodik voneinander abweichen.“
Ich gehöre zum Kreis der Sachverständigen, die das Gesetz zum automatisierten Fahren für den Bundestag begleitet haben und im Verkehrsausschuss angehört worden sind.
Alle anderen: Keine Angaben erhalten.
Primärquelle
[1] Kalra N et al. (2017): The Enemy of Good. Estimating the Cost of Waiting for Nearly Perfect Automated Vehicles. Rand Corporation.
Prof. Dr. Raúl Rojas
Leiter des Dahlem Center for Intelligent Systems, Freie Universität Berlin
Prof. Dr. Ortwin Renn
Wissenschaftlicher Direktor und Vorstand, Institute of Advanced Sustainability Studies e.V. (IASS), Potsdam
Prof. Dr. Armin Grunwald
Leiter am Institut für Technikfolgenabschätzung und Systemanalyse, Karlsruher Institut für Technologie (KIT)
Prof. Dr. Markus Maurer
Technische Universität Carolo-Wilhelmina zu Braunschweig
Prof. Dr. Philipp Slusallek
Wissenschaftlicher Direktor Agenten und Simulierte Realität, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI), Saarbrücken
Prof. Dr. Volker Lüdemann
Wissenschaftlicher Leiter Niedersächsisches Datenschutzzentrum, Hochschule Osnabrück
Prof. Dr. Hermann Winner
Leiter des Fachgebiets Fahrzeugtechnik, Technische Universität Darmstadt