Zum Hauptinhalt springen
05.07.2017

Automatische Autos sollen künftig ethische Entscheidungen treffen können

Anlass

Ein einfaches Modell könnte es automatischen Autos ermöglichen, bei unvermeidbaren Unfällen nach den gleichen Prinzipien wie Menschen zu reagieren. Davon zeigen sich Forscher der Universität Osnabrück in der Fachzeitschrift „Frontiers in Behavioral Neuroscience“ überzeugt. Die Wissenschaftler hatten 105 Testpersonen per Virtual Reality (VR) über eine Vorstadtstraße fahren lassen. Aus einem Nebel traten dann verschiedene Hindernisse auf, denen sie nicht ausweichen konnten: Menschen unterschiedlichen Geschlechts, Tiere, unbelebte Dinge. Den Probanden blieben entweder eine oder vier Sekunden Zeit bis zum Unfall. Die Forscher beobachteten, ob die Menschen lenkten und verglichen diese Daten mit Vorhersagen, die auf verschiedenen Modellen basierten. Die Forscher ziehen aus ihren Tests den Schluss, dass ein einfaches Modell, basierend auf einem „value-of-life“-Ansatz, den tatsächlichen Reaktionen von Fahren bereits recht nahekommt und daher eine gute Grundlage für die Entwicklung entsprechender Algorithmen für automatische Autos sein könne.

Der am 20.06.2017 vorgestellte Bericht der Ethik-Kommission automatisiertes Fahren stellt hingegen zum einen in seiner Regel 8 fest: Eine automatische Steuerung für unvermeidbare Unfälle sei „nicht ethisch zweifelsfrei programmierbar“. Zum anderen heißt es in seiner Regel 9, dass bei unausweichlichen Unfällen „eine Qualifizierung nach persönlichen Merkmalen untersagt“ ist.

 

Übersicht

  • Herr Prof. Dr. Armin Grunwald, Leiter am Institut für Technikfolgenabschätzung und Systemanalyse, Karlsruher Institut für Technologie (KIT), Karlsruhe
  • Herr Prof. Dr. Raúl Rojas, Prof.Dr. Dr. h.c. Raul Rojas, Leiter des Dahlem Center for Intelligent Systems, Freie Universität Berlin
  • Herr Prof. Dr. Christoph Stiller, Leiter des Instituts für Mess- und Regelungstechnik, Karlsruher Institut für Technologie (KIT)
  • Herr Prof. Dr. Sebastian Stiller, Institut für Mathematische Optimierung, Technische Universität Carolo-Wilhelmina zu Braunschweig und Mitglied im Vorstand der Deutschen Mathematiker Vereinigung

Statements

Prof. Dr. Armin Grunwald

Leiter am Institut für Technikfolgenabschätzung und Systemanalyse, Karlsruher Institut für Technologie (KIT), Karlsruhe

„Mir ist niemand aus der Ethik-Kommission bekannt, der behauptet hätte, dass man menschliches Verhalten nicht modellieren kann. Und wenn man es modellieren kann, kann man auch versuchen, etwas über die dem Verhalten zugrundeliegenden moralischen Intuitionen zu lernen. Das ist ein gängiges Geschäft der Verhaltensforschung. Allerdings folgen daraus keinerlei ethische Regeln. Aus der Tatsache, dass Menschen sich so und so verhalten, folgt nicht, dass sie sich so verhalten sollen – aber genau darum geht es in der Ethik und in den von der Ethik-Kommission vorgeschlagenen Regeln. Die Geltung und Überzeugungskraft dieser Regeln hängt von normativen Argumentationen, Menschenbild, Gesellschaftsvorstellungen etc. ab, aber nicht davon, wie Menschen sich üblicherweise verhalten oder was sie so denken. Sonst wäre das so, als würde man die Todesstrafe für ethisch legitim halten, wenn die meisten Menschen sich dafür aussprechen.“

 „Hier gibt es aber noch einen spezifischeren Punkt. Das Verhalten von Menschen in Dilemma-Situationen wird strafrechtlich nicht verfolgt, auch wenn nachgewiesenermaßen durch ein anderes Verhalten ein Schaden nicht entstanden wäre. Denn nur für Handlungen wird Verantwortung übernommen und nur sie können strafrechtlich verfolgt werden. Zur Handlung gehören eine Absicht und die Möglichkeit, sie auch zu unterlassen bzw. eine andere zu unternehmen.“ 

„In einer Dilemma-Situation sind jedoch die grundlegenden Voraussetzungen nicht erfüllt, um von einer Handlung sprechen zu können – stattdessen ist es Verhalten oder Affekt. Wenn man dieses nun zur Richtschnur einer rechtlichen Vorgabe für die Programmierung autonomer Autos machen würde, ist hier eine kategoriale Differenz zu beachten: Die Software würde sich dann nicht quasi ‚im Affekt’ verhalten, sondern sie würde einen vorab intentional definierten Plan ausführen. Das jedoch wäre möglicherweise justiziabel, eben weil es intentional erfolgt und entsprechend programmiert wurde.“

 „Man lernt hier, dass die Modellierung jetzigen menschlichen Verhaltens in Dilemma-Situationen und eine Ausrichtung der Steuerungssoftware an diesen Modell-Ergebnissen das Problem nicht löst: Wir kommen um eine ordentliche normative Argumentation nicht herum. Aus empirischer Forschung folgen keine ethischen Regeln.“

Prof. Dr. Dr. h.c. Raúl Rojas,

Leiter des Dahlem Center for Intelligent Systems, Freie Universität Berlin

„Leider können Virtual Reality (VR)-Simulationen die tatsächlichen Entscheidungen im Verkehr, vor allem bei Extremsituationen, nicht abbilden. Fahrer verhalten sich nicht ‚ethisch’. Sie versuchen, zuallererst die Folgen eines Unfalls für sich selbst zu minimieren. Bei VR-Versuchen gibt es kein Risiko für den Fahrer, und so wird der größte und eigentlich entscheidende Einflussfaktor einfach vernachlässigt. Das beste Beispiel für die Art von Entscheidungen, die Menschen wirklich treffen, sind Kleinflugzeuge in Not. Die Piloten versuchen, auf Autobahnen zu landen, und bringen Unbeteiligte in Gefahr, statt einfach auf dem Acker zu landen. In eine VR-Simulation würden alle Probanden brav auf dem Acker landen.“ 

„Diese Arbeit mutet wie eine Art Computerspiel an. Die dort getesteten extremen Situationen werden zehn Millionen Fahrer vielleicht einmal im Leben erleben. Es sind äußerst seltene Situationen, und da kann der Computer mit VR-Simulationen nicht helfen, um Verhalten zu analysieren. Die einzige richtige Entscheidung ist, sich an die Gesetze zu halten und keinen Vergleich von ‚values of life’ vorzunehmen, wie die Ethikkommission vorschlägt.“ 

„Das Experiment ist meines Erachtens falsch aufgebaut. Die Teilnehmer wurden nicht vorher instruiert, den geltenden Gesetzen bzw. Richtlinien/Empfehlungen zu folgen, darunter auch denen der Ethikkommission. Fahrer müssen sich in Zukunft mit diesen Empfehlungen vertraut machen, und das wird ihr Verhalten ändern – hoffentlich.“

Herr Prof.Dr. Christoph Stiller

Leiter des Instituts für Mess- und Regelungstechnik, Karlsruher Institut für Technologie (KIT), Karlsruhe

„Der Gedanke, wie automatische Fahrzeuge in Dilemma-Situationen entscheiden sollten, hat in den vergangenen Jahren neue Gruppen von Wissenschaftlern motiviert, sich mit der Fahrzeugautomatisierung auch aus rechtlicher und ethischer Sicht zu befassen. Dabei muss man sich im Klaren sein, dass diese Art von Unfällen, in denen ein Fahrzeug nur noch zwischen Unfällen mit unterschiedlichen Verkehrsteilnehmern wählen kann, extrem selten vorkommen. Dies ist schon daran ersichtlich, dass bei mehr als einer Millionen Verkehrstoten weltweit in jedem Jahr kein einziger Unfall dokumentiert ist, in dem zweifelsfrei eine Dilemma-Situation vorlag.“ 

„Persönlich denke ich nicht, dass Maschinen in naher Zukunft ethische Überlegungen anstellen können, ich halte das aber auch nicht für notwendig. Die ‚Denkweise’ automatischer Fahrzeuge ist eher mit der von Fabrikrobotern als mit der von Menschen vergleichbar. Zuerst einmal ist bereits der Fehler eingetreten, wenn ein automatisches Fahrzeug überhaupt erst in eine Dilemma-Situation gerät. Die Forschung muss sich daher darauf konzentrieren, diesen Fehler zu vermeiden. Davon abgesehen wird ein automatisches Fahrzeug immer so programmiert sein, dass bei Nutzung des verfügbaren Wissens jene Entscheidung gewählt wird, die den voraussichtlich geringsten Schaden verursacht.“

Herr Prof. Dr. Sebastian Stiller

Institut für Mathematische Optimierung, Technische Universität Carolo-Wilhelmina zu Braunschweig und Mitglied im Vorstand der Deutschen Mathematiker Vereinigung

„Entscheidend ist die ethische Veränderung im Übergang von Einzelentscheidungen zu Regeln. Eine empirische Ethik halte ich für abwegig. Wenn es eine klare, ethische (nicht empirisch) begründete Regel gibt und sie hinreichend gut umsetzbar ist, sollte man sie auch umsetzen. Aber die beiden ‚Wenns’ sind nicht trivial. Die aktuellen Verfahren können viel weniger erkennen als wir oft glauben. Und eine klare Regel will man meines Erachtens für viele tragische Fälle aus guten, ethischen Gründen nicht aufstellen.“

„Es gibt keine einheitliche, sondern mehrere Theorien in Ethik und praktischer Philosophie, die unserem Handeln und unseren Gesetzen zugrunde liegen und breite Zustimmung haben. Ethik aus Empirie abzuleiten, gehört jedoch zu den abstrusen Ideen. Auch wenn man das in modernen Methoden und Schlagwörtern verpackt: eine ethische Entscheidung ist nicht deswegen richtig, weil es viele so machen. Hier halte ich den Ansatz der Studie für verfehlt.“

„Die vorliegende Studie benutzt einfache statistische Verfahren um aus einer Stichprobe von Entscheidungen unter Laborbedingungen Regeln abzuleiten. Solche Verfahren stellen immer nur eine Korrelation fest. Kausalität, also einen Grund können sie nicht angeben. Beispielsweise ist der Schokoladenkonsum eines Landes hervorragend mit der Anzahl der Nobelpreisträger korreliert. Daraus ließen sich dann wunderbare Regeln für die Bildungspolitik ableitet.Von ethischen Regeln erwarte ich jedoch, dass sie einen Grund haben. Den kann die Empirie nicht leisten.“

„Erschwerend kommt in diesem Fall hinzu, dass Entscheidungen in der Hitze eines Augenblicks – wie in der Studie – den ethischen Überzeugungen des Menschen, der sie trifft, zuwiderlaufen können.“

„Es kann also nicht darum gehen, dass autonome Fahrzeuge menschliches Handeln im ethischen Bereich imitieren. Dafür gibt es zwei Gründe: Wenn ein autonomes Fahrzeug einer Regel folgt, hat diese Regel einen anderen Stellenwert, als die Einzelentscheidung eines Menschen – auch wenn sie gehäuft in einer bestimmten Weise ausfällt. Während man vorgibt zu imitieren, geht man de facto von Einzelentscheidungen zu gesetzesartigen Regeln über. Zweitens, eine diffuse, statistisch gewonnene Regel, die bestenfalls mit guter Wahrscheinlichkeit ähnlich entscheidet wie ein Mensch unter Zeitdruck, entspricht nicht den Ansprüchen, die wir an Gesetze stellen. Autonome Fahrzeuge sind aus offensichtlichen, prinzipiellen Gründen keine moralischen Subjekte. Es ist ein fundamentales Missverständnis dessen, was ethische Entscheidungen darstellen: zu glauben, man könne sie imitieren, und damit ein künstliches moralisches Subjekt schaffen. Die Situation ist die: Die Gesellschaft muss anstelle von Einzelentscheidungen Regeln finden. Diese Regeln können auch beinhalten, dass bestimmte Kriterien nicht berücksichtigt werden dürfen.“

Zu der Fokussierung der Debatte um automatisches Fahren auf das Verhalten der Fahrzeuge bei unvermeidbaren Unfällen:

„Sogenannte Trolley-Probleme erhalten in der Diskussion um autonome Fahrzeuge überzogene Aufmerksamkeit. Ein Trolley-Problem ist eine Situation, in der ein Mensch zwischen zwei extrem schlechten, oft schuldhaft empfundenen Ausgängen wählen muss, typischerweise dem Tod verschiedener Menschen. Dies sind tragische Situationen in dem Sinne, dass man es nur falsch machen kann. Ihr eigentlicher Zweck ist es, Philosophiestudenten zu verwirren. Trolley-Probleme sind künstliche Situationen und für die Praxis höchst unwahrscheinlich. Die Diskussion sollte darum gehen, wie viele Rettungsboote an Bord genommen werden müssen und nicht darum, auf geheimnisvolle Weise Regeln zu generieren, wer eines benutzen darf. Es sind Probleme, die für uns Menschen schwierig zu entscheiden sind. Es sind keine Probleme, die spezifisch durch die Verwendung von Algorithmen entstehen.“

„Die wichtige, ethische Veränderung, die durch algorithmische Entscheidungen entsteht, liegt darin, dass man nicht Einzelentscheidungen trifft, sondern mit dem Einsatz eines Algorithmus eine allgemeine Regel in die Welt setzt. Der Algorithmus selbst ist technische Nebensache. Entscheidend ist das Kriterium, das der Algorithmus umsetzt. Über dieses Kriterium kann jeder diskutieren, unabhängig von seinem technischen Verständnis.“

„Der Übergang von der Einzelentscheidung zur Regel ist entscheidend. In einer tragischen Situation – beispielsweise, wenn ein Mensch zwischen dem Tod einer Frau und eines Mannes wählen muss – kann man dem Menschen keinen Vorwurf machen, wenn er z.B. die Frau rettet. Aber wenn die Gesellschaft eine Regelerlässt, es sei immer die Frau zu retten, ist das eine Diskriminierung.“

„Am besten ist die Situation mit dem überkommenen ‚Frauen und Kinder zuerst‘ bei Seenot vergleichbar. Die Gesellschaft muss entscheiden, ob sie solche Regeln für die Seenot oder einen Unfall aufstellen will - oder ob sie diese Entscheidungen ohne Ansehen der Person treffen lassen will.“

Zur Regel 8 der Ethikkommission, die festhält, eine automatische Steuerung für unvermeidbare Unfälle sei „nicht ethisch zweifelsfrei programmierbar“:

„Es ist keine technische Diskussion. Das Wort ‚Algorithmus‘ ist in dieser Diskussion weitestgehend fehl am Platze. Es ist nicht die Frage, ob sich ethisches Verhalten ‚programmieren‘ oder in einen Algorithmus fassen lässt. Es ist die Frage, ob man eine klare Regel für solche Situationen mit Ansehen der Person fassen will oder nicht.“

„Insofern sehe ich die Regeln der Ethik-Kommission kritisch. Es ist nicht gut, sich auf die fehlende ‚Programmierbarkeit‘ von ethischem Verhalten herauszureden. Entscheidend ist, dass eine Vorgabe für autonome Fahrzeuge eine allgemeine Regel wie ein Gesetz darstellt. In vielender diskutierten, tragischen Situationen will man keine allgemeine Regel erlassen. Das ist eine menschliche, ethische Einsicht, keine technische. Ich halte es für richtig, dass Maschinen in vielen Fällen ohne Ansehen der Person entscheiden. Aber nicht aus technischen Gründen, sondern weil wir als Menschen eine solche Regel nicht aufstellen wollen.“

„Wenn man andererseits für bestimmte Fälle eine klare, ethisch begründete Regel findet, spricht nichts dagegen, wenn es gelingt diese zu realisieren. Unabhängig davon, wie ich persönlich hier stehe, muss man festhalten, dass diese Frage ohne tieferes technisches Verständnis diskutiert werden kann. Eine Vermengung mit den technischen Möglichkeiten trübt meist den Blick auf die eigentliche Frage.“

Zur technischen Umsetzbarkeit:

„Man muss zwei Fragen trennen: 1. Kann man eine klare Regel aufstellen für das Verhalten in tragischen Unfallsituationen? 2. Wie gut kann man diese Regel technisch umsetzen?“

„Autonome Fahrzeuge sind keine moralischen Subjekte. Sie sind wie automatische Türen, die immer – falls die Lichtschranke nicht defekt ist – anhalten, wenn etwas zwischen sie gerät. Auch das kann in konstruierten Einzelfällen ethisch falsch sein. Man muss sich davon befreien, von autonomen Fahrzeugen ein volles ethisches Verhalten zu erwarten. Die Gesellschaft kann ethisch begründete Regeln fassen, von denen man überzeugt ist, dass sie in den weit überwiegenden Fällen zum gewünschten Ergebnis führen.“

„Gibt es diese Regel, dann kann man sich die Frage stellen, ob und wie gut sie technisch umsetzbar ist.“

„Die Erkennung von Personenmerkmalen wie Alter oder Geschlecht, und schon die Erkennung, ob es sich um eine Person handelt, ist gegenwärtig nur mit Verfahren denkbar, die mit Fehlerwahrscheinlichkeiten behaftet sind. Sind diese Wahrscheinlichkeiten klein genug, sehe ich darin keinen Hinderungsgrund, eine klare Regel soweit als möglich umzusetzen. In der Regel sind die Wahrscheinlichkeiten zur Erkennung solcher Merkmale jedoch noch sehr schlecht.“

Mögliche Interessenkonflikte

Alle: Keine angegeben.

Primärquelle

Sütfeld, LR et al. (2017): Using Virtual Reality to Assess Ethical Decisions in Road Traffic Scenarios: Applicability of Value-of-Life-Based Models and Influences of Time Pressure. Frontiers in Behavioral Neuroscience. DOI: 10.3389/fnbeh.2017.00122.