Autonomes Fahren: Algorithmus wägt Risiken ethisch ab
ethischer Algorithmus für autonomes Fahren verteilt Risiken fair auf Verkehrsteilnehmende
Radfahrer und Fußgänger wären deutlich besser geschützt als bei alternativen Algorithmen
Forschende begrüßen Fokus auf Risikoverteilung statt Dilemmata; problematisieren Strategie, um sozialen Konsens zur Gewichtung ethischer Prinzipien zu finden
Autonome Fahrzeuge könnten Fahrmanöver künftig so durchführen, dass Risiken möglichst fair unter den Verkehrsteilnehmenden verteilt würden. Besonders ungeschützte Personen wie Fußgänger oder Radfahrer wären dann viel seltener in Unfälle verwickelt, als mit alternativen Algorithmen, die keine Risiken abwägen oder nur die Fahrzeuginsassen berücksichtigen. Einen entsprechenden Vorschlag präsentierte eine Forschergruppe aus Deutschland am 02.02.2023 in Nature Machine Intelligence (siehe Primärquelle). Das Team hatte einen Steueralgorithmus entwickelt, der neben der Route auch berechnet, welches Risiko auf einem möglichen Weg für andere Verkehrsteilnehmende entsteht. Um diese Risiken ethisch zu bewerten, nutzten die Wissenschaftlerinnen und Wissenschaftler fünf Prinzipien: das maximal akzeptable Risiko, bei dem ein Fahrmanöver durchgeführt werden darf, den besonderen Schutz derjenigen, die bei einem Unfall am schlimmsten betroffen wären, die Gleichbehandlung aller Menschen, die Minimierung des Gesamtrisikos und die Eigenverantwortung der Verkehrsteilnehmenden. Anschließend modellierten sie das Verhalten autonomer Fahrzeuge mit ihrem Algorithmus in etwa 2000 simulierten Fahrsituationen.
Institut für Technikfolgenabschätzung und Systemanalyse ITAS, Karlsruher Institut für Technologie (KIT)
„Das von den Autoren vorgestellte Beispiel für einen ethischen Algorithmus, der beim vollautonomen Fahren Entscheidungen auf der Grundlage von Risiko-Erwägungen und unter Einbeziehung des Maximin-Prinzips fällt, ist einerseits sehr spannend, andererseits aber auch nicht vollkommen neu. Tatsächlich erinnert der Algorithmus stark an die Arbeit von Derek Leben [1][2]. Hier würde es sich lohnen, die Unterschiede und Gemeinsamkeiten der beiden Herangehensweisen genauer zu untersuchen, durchaus auch im Hinblick auf das Erfüllen der Standards, die von der EU-Expertenkommission erarbeitet wurden.“
„Dies ist die zweite mir bekannte Veröffentlichung, die mit einem von John Rawls Philosophie inspiriertem Algorithmus arbeitet. Dagegen scheinen die klassischeren Konzepte für einen Umgang mit automatisierten Entscheidungen – zum Beispiel Utilitarismus – an Attraktivität zu verlieren. Ein Grund dafür kann die starke Fokussierung auf die sogenannten Trolley-Probleme sein. Die haben bei der medialen und wissenschaftlichen Debatte um die Ethik des autonomen Fahrens lange dominiert; sie machen jedoch vor allem die Grenzen der genannten ethischen Konzepte in der realen Anwendung deutlich. Der Schwenk von ‚Schaden‘ zu ‚Risikoverteilung‘ sowie die Hinwendung zur politischen Philosophie von John Rawls sind daher naheliegend.“
„Dabei muss man bedenken: Bei den Trolley Problemen geht es nicht allein um die Verletzung ethischer Prinzipien bei moralischen Dilemmata, sondern eben auch darum, dass ein (oder mehrere) Menschen verletzt oder getötet werden. Dieses Problem lässt sich mit dem Schwenk von ‚Schaden‘ zu ‚Risiko‘ nicht so einfach umgehen. Der vorgeschlagene Algorithmus kann trotzdem ein guter Kandidat für die tatsächliche Umsetzung vollautonomen Fahrens sein. Man muss aber wissen, auch dieser Algorithmus kann – genau wie andere – Risiken für Schäden lediglich minimieren, aber nicht ausschließen.“
„Die Autoren führen aus, die Gewichtung der Prinzipien, nach denen ein Algorithmus Risiken abwägt, könnten besser im sozialen Konsens als durch eine Person definiert werden und stützen sich auch hier auf Ideen von John Rawls. Das ist sinnvoll, allerdings schwebt ihnen dafür eine reine User-Studie vor. Das greift meines Erachtens für dieses Unterfangen zu kurz. Dagegen müsste die gesamte Gesellschaft in diesen Prozess einbezogen werden. Ideen aus der Philosophie von Rawls könnten dabei eine Rolle spielen, um einen übergreifenden Konsens zu finden, dem alle vernünftigen Mitglieder unserer pluralen Gesellschaft zustimmen können. Ein Algorithmus dürfte dementsprechend nicht nur aus einer einzelnen ethischen Perspektive entscheiden, die nicht alle Menschen teilen, wie zum Beispiel dem Utilitarismus. Wichtig ist es dabei, die zwei Ebenen nicht durcheinander zu bringen: Auch der Rawls-inspirierte Algorithmus der Autoren wäre nur einer von verschiedenen Kandidaten für Entscheidungsalgorithmen im autonomen Fahren. Die Entscheidung für einen dieser Kandidaten müsste dann in einem zweiten Schritt, zum Beispiel über die Idee eines übergreifenden gesellschaftlichen Konsens á la Rawls legitimiert werden.“
„Das Prinzip, dass jeder Verkehrsteilnehmer für sein Verhalten verantwortlich ist, in die Programmierung des Algorithmus mit einzubeziehen, ist ein interessanter Ansatz, vor allem, weil er Aspekte der EU-Expertenkommission aufnimmt. Allerdings ist es auch problematisch, ‚persönliche Verantwortung‘ verschiedener Akteure in einen Algorithmus einzubeziehen, vor allem wenn die Konsequenzen für Fehlverhalten so schwerwiegend ausfallen können. Hier wäre eine Follow-Up-Studie genau zu diesem Thema wirklich spannend. Die Frage, ob diese Art von Verantwortung für das eigene Handeln tatsächlich in einen Entscheidungsalgorithmus eingebaut werden sollte, könnte darin kritisch behandelt werden.“
Wissenschaftlicher Direktor, Research Institute for Sustainability (RIFS), Potsdam
„Es vergeht keine Konferenz zum Thema Autonomes Fahren, bei der nicht die Frage aufgeworfen wird, wie ein vorab programmierter Entscheidungsalgorithmus bei ethischen Dilemmata die richtige, moralisch gebotene Entscheidung treffen kann und sollte. Ausgangspunkt ist die Situation, bei der ein Autofahrer entweder geradeaus in eine Menschenmenge zusteuert oder rechts zwei ältere Menschen umfahren würde oder links zwei Kinder. Ein rechtzeitiges Anhalten ist aufgrund der hohen Geschwindigkeit des Fahrzeugs nicht möglich. Sind die Kinder mehr wert als die beiden älteren Menschen oder sollte man lieber in die Menschenmenge rasen, bei der es nicht ganz klar ist, wie viele davon verletzt oder sogar getötet würden? Inzwischen gibt es ganze Promotionsarbeiten, wie in einem solchen Falle eine ethisch verantwortbare Entscheidung getroffen werden kann. Fazit all dieser Studien: gleichgültig, wie man sich entscheidet, es ist immer fragwürdig und problematisch. Es gibt gute Argumente für jede Option und keines davon ist so überzeugend, dass man das Dilemma auflösen könnte“.
„Auch nicht mit künstlicher Intelligenz? Maximilian Geisslinger, Franziska Poszler und Markus Lienkamp haben einen auf KI fußenden Lösungsansatz vorgeschlagen, mit dem man diese Dilemmata systematisch angehen kann. Das Programm entscheidet auf der Basis von fünf Parametern: Minimierung des Gesamtrisikos, Priorität für diejenigen, die am schlechtesten bei der Kollision wegkommen würden, Gleichbehandlung aller betroffenen Personen, Verantwortung, und maximal vertretbares (akzeptables) Risiko. Ohne Zweifel sind das wichtige Entscheidungskriterien, aber helfen sie wirklich, die Dilemmata aufzulösen?“
„Zunächst einmal fällt auf, dass die vorgestellten Situationen – riskantes Überholmanöver oder unbeabsichtigtes Überfahren des Mittelstreifens – keine ethischen Dilemmata widerspiegeln. Zwar wird in der Diskussion von unausweichlichen Unfällen gesprochen, aber die Beispiele vor allem in den Schaubildern scheinen eher auf Unachtsamkeit als auf unausweichliche Dilemmata hinzuweisen. Wenn die KI helfen kann, Unachtsamkeit oder Fehlbeurteilungen auszugleichen, dann ist das sehr zu begrüßen. Das hat aber mit der Lösung ethischer Dilemmata wenig zu tun. Dann läuft der Beitrag unter einer falschen Flagge.“
„Wenn man jedoch davon ausgeht, dass die vorgeschlagene KI-Software auf die Lösung ethischer Dilemmata ausgerichtet ist, wie es der Beitrag suggeriert, gibt es eine Reihe von Argumenten, die diesen Anspruch zumindest relativieren. Zum ersten können Widersprüche zwischen den fünf Kriterien auftreten. Man stelle sich vor, links stehen zwei junge kraftstrotzende Männer und rechts eine gebrechliche ältere Frau. Zielt der Fahrer auf die ältere Frau, nimmt er in Kauf, dass diese Frau bei einem Aufprall wesentlich mehr Verletzungen davontragen wird als die beiden Männer, demnach wäre das zweite Kriterium der Priorität für die höchst verwundbare Person verletzt. Gleichzeitig würde aber dadurch das Gesamtrisiko verringert, weil jetzt eine Person statt zwei zu Schaden kommen würde. Damit wäre das erste Kriterium erfüllt. Welches der beiden Kriterien hat dann Vorrang?“
„Zum Zweiten sind einige der Kriterien wie Verantwortung oder maximal vertretbares oder akzeptables Risiko wieder auf das Ermessen der beurteilenden Person – oder der KI – angewiesen. Wann ist denn ein Risiko akzeptabel? Dafür gibt es keinen allgemeingültigen und von allem prinzipiell akzeptierten Maßstab. Im schlimmsten Falle macht das die KI nach Gutdünken und gibt vor, einen ‚objektiven‘ Maßstab zu besitzen.“
„Zum dritten sind in den Kriterien bereits ethische Vorentscheidungen eingebunden. Die Gleichbehandlung aller möglichen Opfer ist auf den ersten Blick plausibel und nachvollziehbar. Wie ist aber eine Situation einzuschätzen, bei der links eine die Menschheit rettende Nobelpreisträgerin und rechts eine fest zum Suizid entschlossene Person steht oder eine Person, die noch maximal drei Wochen zu leben hat? Man kann auch hier auf Gleichbehandlung pochen, zumal der Autofahrer das nicht weiß. Aber selbstverständlich ist diese Prämisse keinesfalls.“
„Die KI löst das Dilemma nicht auf, sie macht es nur transparenter und plastischer. Es könnte auch zu mehr Konsistenz führen und eindeutig subdominante Lösungen (die egal, wie man gewichtet, immer schlechter abschneiden als die anderen) verhindern. Aber was in einem solchen Konfliktfall Priorität erhält, die Zahl der betroffenen Personen, ihr Alter oder Status, die Zahl der Verletzten versus Zahl der Toten, kann durch die KI nicht gelöst werden. Hier müssen die verantwortlichen Akteure entweder selbst Farbe bekennen und Prioritäten festlegen oder das Ganze einem Zufallsgenerator überantworten, weil Prioritäten nicht eindeutig zu setzen sind.“
„Die gute Nachricht ist aber: So sehr sich die Community zur ethischen Verantwortbarkeit von autonomem Fahren mit diesen Dilemmata beschäftigt und händeringend nach Lösungen sucht, so unwahrscheinlich ist es, dass es je zu einem dieser Dilemmata kommt. Zum einen kann man schon aus der eigenen Erfahrung und der eigenen Anschauung ableiten, dass bei einem 180 Grad Winkel, der jedem Fahrer und jeder Fahrerin offensteht, mindestens eine Richtung verbleibt, bei der keine Fußgänger oder Radfahrer überfahren werden müssen. Zum anderen ergaben meine eigenen Nachfragen bei Versicherungen keinen einzigen Fall, bei dem es tatsächlich zu einer der oben geschilderten Dilemmasituationen gekommen ist. Allenfalls hatten Fahrer beziehungsweise Fahrerinnen Unfallsituationen erlebt, bei denen sie zwischen ihrem eigenen Wohlergehen und der Gesundheit anderer entscheiden mussten, etwa einem Fußgänger auszuweichen und dabei sich selbst zu gefährden. Geht man davon aus, dass der Fahrer oder die Fahrerin angeschnallt ist und man hier den Gleichheitsgrundsatz anwendet, ist das Ausweichen immer die ethisch zu bevorzugende Lösung, wenn ansonsten Personenschäden unvermeidlich auftreten würden.“
„Kurzum, die KI ist für die Auflösung von ethischen Dilemmata weder notwendig, weil sie praktisch so gut wie nie zur Anwendung kommen würde, noch löst sie den Anspruch auf, objektiv und ethisch überzeugend die Zielkonflikte aufzulösen, die bei den Dilemmata zwangsläufig auftreten. Das heißt aber nicht, dass KI beim autonomen Fahren nichts bringen würde. Wo sie dringend gebraucht wird, ist bei dem Erkennen von Fehlwahrnehmungen (etwa Spiegelungen in glatten Oberflächen), denn dort ist das Unfallpotenzial wesentlich höher und ein intelligentes, lernendes und abwägendes Entscheidungssystem dringend gefordert.“
Alle: Keine Angaben erhalten.
Primärquelle
Geisslinger M et al (2023): An ethical trajectory planning algorithm for autonomous vehicles. Nature Machine Intelligence. DOI: 10.1038/s42256-022-00607-z.
Weiterführende Recherchequellen
Rawls J (1993): Political Liberalism. Columbia University Press.
Zusammenfassung seines Werks und Hintergründe in der Stanford Encyclopedia of Philosophy.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Leben D (2017): A Rawlsian Algorithm for autonomous vehicles. Ethics and Information Technology volume 19, 107–115. DOI: 10.1007/s10676-017-9419-3.
[2] Leben D (2018): Ethics for robots: How to design a moral algorithm. Taylor and Francis Group.
Der Autor skizziert den Inhalt des Buches auf seiner Homepage.
Claudia Brändle
Institut für Technikfolgenabschätzung und Systemanalyse ITAS, Karlsruher Institut für Technologie (KIT)
Prof. Dr. Ortwin Renn
Wissenschaftlicher Direktor, Research Institute for Sustainability (RIFS), Potsdam