Zum Hauptinhalt springen
02.07.2016

Erster Unfall mit automatisiert fahrendem Auto

Anlass

Am Sonnabend, den 02.07.2016, erreichte uns dieses Statement zum Tesla-Unfall. Wir finden die auf Deutschland bezogenen Gedanken unseres Experten so hilfreich, dass wir sie trotz der bereits gelaufenen Berichterstattung veröffentlichen.

Übersicht

  • Prof. Dr. Philipp Slusallek, Wissenschaftlicher Direktor, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI) und Professor für Informatik an der Universität des Saarlandes, Saarbrücken

Prof. Dr. Philipp Slusallek

Wissenschaftlicher Direktor, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI) und Professor für Informatik an der Universität des Saarlandes, Saarbrücken

"Letztlich war es nur eine Frage der Zeit, wann der erste größere Unfall beim Autonomen Fahren passiert. Wir befinden uns aktuell in der absoluten Frühzeit des Autonomen Fahrens. Ähnlich wie in der Anfangszeit des Autos werden von den Herstellern und Zulieferern verschiedenste Möglichkeiten ausprobiert, die Funktionalität des Autonomen Fahrens zu realisieren."

"Die heute für die Automobilindustrie selbstverständlichen Prinzipien des Sicherheitsgurts, von systematischen Crashtest zu Absicherung der Funktionalität schon bei der Entwicklung, oder eines formalen TÜV-Tests für jedes Auto sind im Bereich des Autonomen Fahren heute noch unbekannt - obwohl die Autoindustrie es besser wissen müsste. Hier setzten sich Gewohnheiten der IT-Industrie durch, die in dem sicherheitskritischen Bereich des Autofahrens nicht akzeptabel sein sollten."

"Allerdings sind die Probleme auch nicht einfach zu lösen. Wie kann man garantieren, dass das Auto einen weißen Laster vor hellem Himmel, das Kind im roten Mantel vor einem rötlichen Lieferwagen oder welche kritische Situationen auch immer, unter allen möglichen und unmöglichen Umständen auch erkennt? Auch wenn es regnet, die Sonne tief steht und/oder das Kind gerade ungewöhnliche Bewegungen macht (sich bückt, um einen Ball aufzuheben). Wie können wir sicher stellen, dass das Auto 'vorsichtig' fährt, wenn es einen Ball auf der Straße oder andere Warnzeichen erkennt? Welche kritischen Situationen gibt es eigentlich und wie können wir die systematisch abtesten?"

"Ein wesentliches Problem ist es, dass die heute eingesetzten Verfahren, um dem Auto das Autonome Fahren beizubringen (maschinelles Lernen) eine große Anzahl an Beispielen brauchen, um bestimmte Situationen und die passenden Reaktionen darauf lernen zu können. Kritische Situationen haben aber eben genau die Eigenschaft, dass sie nur sehr selten auftreten und so nur extrem schwer erlernbar sind. Es sind aber genau diese Situationen, auf die wir unsere zukünftigen Autos optimieren müssen."

"Das DFKI hat diese Problematik schon seit längerem erkannt und bereitet aktuell ein Forschungsprogramm vor, um solche kritischen Situationen in Zukunft systematisch lernen und damit verhindern zu können. Dabei müssen verschiedenste Technologien aus der Künstlichen Intelligenz, wie Computergraphik, Bildverarbeitung, maschinelle Lernverfahren und andere viel enger als heute miteinander integriert werden."

"Deutschland ist hier besonders gut aufgestellt. Allerdings sind die Probleme aufwendig und können nur gemeinsam von Forschung, Autoindustrie und Politik gelöst werden."

Mögliche Interessenkonflikte

Alle: Keine angegeben.