Seit es selbstfahrende Autos gibt, stellen sich Ingenieure und Entwickler immer wieder eine Frage: Wie soll sich der Wagen verhalten, wenn ein Unfall nicht mehr zu verhindern ist? Soll er geradeaus weiterfahren und dabei ein älteres Ehepaar überfahren oder soll er die Spur wechseln, wobei er eine Mutter mit Kinderwagen erwischen würde? Ist es besser, eine Sportlerin oder zwei Obdachlose in einem Unfall zu töten? Forscherinnen und Forscher haben derartige Fragen in einem Onlinespiel mit dem Namen Moral Machine verarbeitet, das bis heute Millionen Menschen in verschiedensten Ländern der Welt gespielt haben. Die Ergebnisse der bisher rund 40 Millionen Entscheidungen veröffentlichten sie jetzt in der Fachzeitschrift Nature (Awad, 2018). Die Befragung war nicht repräsentativ, junge Männer etwa waren überproportional vertreten.

Die Ergebnisse zeigen, dass eine Mehrheit der Teilnehmer eher Kinder als Ältere verschonen würde sowie eher Menschen als Tieren ausweichen. Die Ergebnisse weisen aber kulturelle Unterschiede auf, schreiben die Wissenschaftler vom Massachusetts Institute of Technology (MIT). Es gäbe ein westliches, östliches und südliches Cluster. Die Entscheidungen in vielen asiatischen Ländern (östliches Cluster) weichen von den anderen Gruppen dadurch ab, dass sie nicht die jüngeren Menschen verschonen würden. Hier scheint der Respekt vor den älteren Mitgliedern der Gemeinschaft schwerer zu wiegen. Das südliche Cluster (Mittel- und Südamerika) unterscheidet sich vom westlichen Cluster (Europa, Nordamerika) unter anderem dadurch, dass die Mittel- und Südamerikaner sehr viel öfter aktiv eingreifen würden, anstatt das Auto einfach weiter geradeaus fahren zu lassen.

Die Forscher erhoffen sich von den Ergebnissen eine Entscheidungshilfe dafür, wie die Software selbstfahrender Fahrzeuge programmiert werden kann. So schreiben die Wissenschaftler um Iyad Rahwad: "Bevor wir unseren Autos erlauben, ethische Entscheidungen zu treffen, müssen wir eine globale Konversation führen und unsere Präferenzen den Unternehmen, die diese moralischen Algorithmen entwerfen, und den politischen Entscheidungsträgern gegenüber deutlich machen."

"Spiele sagen nichts darüber aus, ob etwas ethisch zulässig ist"

Silja Vöneky, Professorin für Rechtsethik an der Universität Freiburg, erklärte dem Science Media Center Deutschland, dass sie es richtig finde, eine Debatte über die "ethische Programmierung" von selbstfahrenden Autos anzustoßen, bevor diese auf den Straßen fahren. "Wir sollten aber nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht." Dilemmasituationen habe es schon vorher gegeben und mit den Menschenrechten existierten bereits rechtlich bindende ethische Prinzipien.

Armin Grunwald vom Karlsruher Institut für Technologie, der auch der Ethikkommission Automatisiertes und Vernetztes Fahren angehört, warnte gar vor den Schlussfolgerungen der Studie: "Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigkeit von Normen gelernt werden." Ansonsten könne nach jedem schweren Verbrechen eine Umfrage gemacht werden, in der sich die Teilnehmer mit ziemlicher Sicherheit für die Einführung der Todesstrafe aussprechen würden. Und das, obwohl sie in den meisten demokratischen Ländern abgeschafft ist und von den meisten Moraltheoretikern abgelehnt wird.

Tatsächlich weichen die Ergebnisse der Moral Machine-Studie teilweise von den Regeln ab, die die deutsche Ethikkommission, in der auch Grunwald sitzt, im Juni 2017 vorgeschlagen hat (Abschlussbericht, PDF). Diese Regeln sehen vor, dass "bei unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt [ist]." Die Software selbstfahrender Autos solle also blind gegenüber äußerlichen oder innerlichen Merkmalen sein, um jedweder Diskriminierung vorzubeugen. Auch sehen die Regeln der Kommission vor, dass niemals jemand, der sich selbst dafür entschieden hat, in ein Auto zu steigen, Unbeteiligte, wie zum Beispiel Fußgänger, überfahren dürfe, um selbst zu überleben. Denn immerhin sei er der "Verursacher des Mobilitätsrisikos". Den Ergebnissen der jetzt erschienenen Studie zufolge hätte ein Großteil der Menschen, die das Moral Machine-Spiel gespielt haben, diese Regeln aber gebrochen.

Die Debatte um die ethischen Grundlagen für den Algorithmus selbstfahrender Autos ist nicht neu. Bereits 2016 und 2017 hatte die Arbeitsgruppe von Iyad Rahwad versucht, eine Diskussion dazu anzustoßen (Science: Bonnefon et al., 2016 und Nature Human Behavior: Shariff et al., 2017). Auch der Unfall eines selbstfahrenden Uber-Autos, bei dem im März dieses Jahres eine Frau starb, hatte die Frage aufgeworfen, wie die Software selbstfahrender Autos programmiert werden solle. 

Der Aufbau des Moral Machine-Spiels erinnert an das sogenannte Trolley-Problem, ein Gedankenexperiment, mit dem seit Jahrzehnten Dilemmata der Moralphilosophie verdeutlicht werden (z. B. Monist: Thompson, 1976).

mit Material von dpa