Zum Hauptinhalt springen
24.10.2018

Welcher Ethik sollten autonome Autos folgen?

Das Trolley-Problem – die Frage, wie autonome Fahrzeuge in Dilemma-Situationen, in denen ein Personenschaden unausweichlich ist, agieren sollten – erfährt immer wieder große Aufmerksamkeit, wenn es um die Sicherheit und Akzeptanz solcher Systeme geht. Sollte ein autonomes Fahrzeug beispielsweise in einem riskanten Ausweichmanöver das Leben seiner Passagiere gefährden, um eine Kollision mit Fußgängern zu vermeiden? Macht es dabei einen Unterschied, ob es sich bei den Fußgängern um Kinder, Schwangere oder Obdachlose handelt?

Eine neue Studie versucht herauszufinden, ob es einen gesellschaftlichen Konsenz darüber gibt, wie autonome Systeme auf solche Situationen reagieren sollten. Entsprechende Richtlinien seien wichtig, damit autonome Fahrzeuge von der Öffentlichkeit akzeptiert werden, so die Autoren. Darum enwickelten sie eine Art Online-Spiel, in dem Nutzer mit entsprechenden Verkehrsdilemmata konfrontiert werden und sich zwischen zwei möglichen Manövern entscheiden, bei denen jeweils unterschiedliche Personen(gruppen) zu Schaden kommen.

Anhand der so gewonnenen Daten stellen die Autoren fest, dass eine klare Rangfolge von Eigenschaften zu erkennen ist, die bestimmen, ob Teilnehmer dazu tendieren, das Leben einer Person zu schützen. So verschonten die Nutzer des Spiels öfter junge als alte Menschen und öfter Gruppen als Einzelpersonen. Zudem konnten die Autoren drei verschiedene Kulturkreise identifizieren, zwischen denen die Bedeutung einzelner Eigenschaften variiert. Die Ergebnisse wurden im Fachjournal „Nature“ publiziert (siehe *Primärquelle).

In Deutschland hat die Ethik-Kommission für automatisiertes Fahren im Juni 2017 ethische Regeln für autonomes Fahren vorgestellt. Darin heißt es, eine automatische Steuerung für unvermeidbare Unfälle sei „nicht ethisch zweifelsfrei programmierbar“. Bei unausweichlichen Unfällen sei „jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt“ [I].

 

Übersicht

     

  • Prof. Dr. Armin Grunwald, Leiter am Institut für Technikfolgenabschätzung und Systemanalyse, Karlsruher Institut für Technologie (KIT)
  •  

  • Prof. Dr. Silja Vöneky, Professorin für Völkerrecht und Rechtsethik, Universität Freiburg, und Mitglied der FRIAS Forschungsgruppe Responsible AI
  •  

Statements

Prof. Dr. Armin Grunwald

Leiter am Institut für Technikfolgenabschätzung und Systemanalyse, Karlsruher Institut für Technologie (KIT)

„Es ist gut, dass die Studie anerkennt, dass Trolley-Probleme keine besondere Bedeutung haben, denn die haben sie wirklich nicht. In unserer Fahrschulpraxis werden denn auch Fahrschüler nicht auf diese Situationen vorbereitet. Und trotzdem akzeptieren wir, dass diese unvorbereiteten Fahrschüler einen Führerschein erhalten. Genauso würden wir dies auch bei autonomen Fahrzeugen akzeptieren – außer vielleicht, wenn die Medien dieses Thema abseits jeder Bedeutung aufbauschen.“

„Online-Spiele geben Anlass für gewisse Vermutungen über menschliches Verhalten. Ob das dann auch in der Wirklichkeit zutreffen würde, ist schwer zu beantworten. Immerhin ist Spiel nicht Ernst. Auf jeden Fall ist Vorsicht geboten, die Ergebnisse eines Spiels einfach auf die Realität zu übertragen.“

„Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigkeit von Normen gelernt werden. Ansonsten könnte nach jedem schweren Verbrechen eine Umfrage gemacht werden, die mit ziemlicher Sicherheit für die Einführung der Todesstrafe ausgehen würde. Ethik und Recht bedürfen anderer Quellen der Rechtfertigung, wie zum Beispiel einem gehaltvollen Menschenbild. In dieser Hinsicht unterliegen die Autoren dem Anfängerfehler des naturalistischen Fehlschlusses.“

Prof. Dr. Grunwald war Mitglied der deutschen Ethik-Kommission, die Richtlinien für den Einsatz autonomer Fahrzeuge entworfen hat.

Prof. Dr. Silja Vöneky

Professorin für Völkerrecht und Rechtsethik, Universität Freiburg, und Mitglied der FRIAS Forschungsgruppe Responsible AI

„Die Autoren versuchen, die moralischen Intuitionen in sogenannten Dilemma-Situationen bei selbstfahrenden Autos von den Teilnehmern der Online-Studie zu messen, also empirisch zu erforschen; Daten von 40 Millionen Entscheidungen aus 233 Ländern und Regionen wurden dafür ausgewertet. Hier wurden auch Präferenzen abgefragt, welche Person – jung oder alt, Mann oder Frau, reich oder arm, kriminell oder nicht kriminell – gerettet werden sollte, wenn mit 100 Prozent Sicherheit eine oder mehrere Personen bei einem Unfall sterben. Die Autoren schreiben jedoch selbst, dass die Zusammensetzung der Teilnehmer zwar international sei, aber nicht repräsentativ. Dies ist eine wichtige Einschränkung: Nicht-repräsentative moralische Intuitionen können so gemessen werden, ethischen Normen können so jedoch nicht begründet werden.“

„Zudem erscheinen methodisch die Cluster (Gruppen), in denen die Länderergebnisse zusammengefasst werden, fraglich: so gibt es eine Gruppe ‚westlicher Länder‘, aber auch eine Gruppe ‚südlicher Länder‘, zu denen die Staaten Latein- und Südamerikas zählen, aber auch – unklarer Weise – Frankreich, das nicht den westlichen Ländern zugerechnet wird.“

„Insgesamt erinnert dies an die empirische Forschung, die Anfang der 2000er Jahre durch Online-Befragung in Dilemmata-Situationen mit dem bekannten Trolley-Beispiel – soll eine Weiche umgestellt werden, wenn dadurch ein Zug umgeleitet werden kann und viele Menschen gerettet werden, aber nur ein Mensch getötet wird – am MIT durchgeführt wurde. Deren Ergebnis oder These war damals jedoch, dass alle Menschen mit einer ‚moral faculty‘ ausgestattet seien und es eine universelle Grammatik der Moral gebe. Diesmal betonen die Autoren nur wenige übereinstimmende Präferenzen und zeigen eher die kulturell und gesellschaftlich geprägten Unterschiede bei den moralischen Intuitionen auf. Gerade hier zeigt sich aber, dass moralische Intuitionen keine ethischen Prinzipien sind, sondern moralische Intuitionen gerade an diesen gemessen werden müssen, weil gesellschaftliche oder individuelle Vorurteile in die Bewertung einfließen – wie beispielsweise die Stellung der Frau in einer Gesellschaft.“

„Grundsätzlich finde ich das Ziel der Autoren, eine Debatte über die ‚ethische Programmierung‘ von selbstfahrenden Autos anzustoßen, bevor diese auf unseren Straßen fahren, richtig. Wir sollten aber nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht – Dilemma-Situationen gab es bereits vor selbstfahrenden Autos; und mit den Menschenrechten gibt es bereits rechtlich bindende ethische Prinzipien, die zentrale universale Werte schützen, wie das Recht auf Leben und das Verbot von Diskriminierungen und die von über 160 Staaten ratifiziert sind. Wenn neue ethische Prinzipien gesucht werden, sollte dies auf dem Boden der Menschrechte geschehen, das heißt Regulierungsvorschläge, UN-Deklarationen oder Kodizes dürfen nicht gegen Menschenrechte verstoßen.“

„Nicht-repräsentative moralische Intuitionen können mit der Umfrage gemessen werden, ethische Normen können so jedoch nicht begründet werden. Ethische Normen müssen, anders als faktische Intuitionen, auf guten Gründen beruhen, das heißt, gerechtfertigt werden können. Rechtfertigende, gute Gründe für eine bestimmte Lösung von Dilemmata-Situationen liefern die Autoren jedoch gerade nicht.“

„Aus menschenrechtlicher Sicht sind Präferenzen, die menschliches Leben nach Art und Qualität differenzieren, zudem gerade nicht zulässig: Moralischen Intuitionen, die einzelne Personen oder Gruppen diskriminieren, könnten daher gerade nicht in Rechtsnormen gefasst werden, weder national noch international. Dies gilt auch, da die relevanten Staaten (über 160) an die UN-Menschenrechtspakte als geltendes Recht gebunden sind.“

„Das Bundesverfassungsgericht hat sich im Rahmen des Grundgesetzes vor dem Hintergrund der Menschenwürde und des Rechts auf Leben in Friedenszeiten deutlich gegen utilitaristische Begründungen gewehrt, nach denen eine Gruppe von Passagieren eines von Terroristen entführten Flugzeuges geopfert werden darf, wenn dadurch mehr Menschen am Boden gerettet werden. Dies mag ethisch umstritten sein, der deutsche Gesetzgeber müsste sich auch hieran in Dilemma-Situationen im Straßenverkehr orientieren; diskriminierende Gesetzgebung darf natürlich ebenfalls – schon nach den Vorgaben des Grundgesetzes – nicht erfolgen.“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Armin Grunwald: „Ich mache darauf aufmerksam, dass ich Mitglied der genannten Ethik-Kommission war und daher vorgeprägt bin.“

Prof. Dr. Silja Vöneky: „Keine Interessenskonflikte.“

Primärquelle

Awad E et al. (2018): The Moral Machine experiment. Nature. DOI: 10.1038/s41586-018-0637-6.

Literaturstellen, die vom SMC zitiert wurden

[I] Bundesministerium für Verkehr und Digitale Infrastruktur (2017): Ethik-Kommission. Automatisiertes und vernetztes Fahren. Bericht Juni 2017.

Weitere Recherchequellen

Science Media Center Germany (2017): Automatische Autos sollen künftig ethische Entscheidungen treffen können. Research in Context. Stand: 05.07.2017.