Hauptinhalt

Topinformationen

Pressemeldung

Nr. 38 / 2018

28. Februar 2018 : Lässt sich die Entscheidung eines Computers moralisch rechtfertigen? Kognitionswissenschaftler der Universität Osnabrück legen Studie zur normativen Ethik selbstfahrender Autos vor

Soll der Bordcomputer eines autonomen Fahrzeugs seine Insassen zur Not in den Tod lenken? Noch optimieren Ingenieure die Zuverlässigkeit der Sensoren der fahrerlosen Autos. Doch schon bald könnten vergleichbare Fahrzeuge in brenzligen Situationen moralische Entscheidungen treffen müssen. Wissenschaftler des Instituts für Kognitionswissenschaft der Universität Osnabrück legen nun, ausgehend von menschlichen Entscheidungen, eine Studie zur normativen Ethik selbstfahrender Fahrzeuge vor.

Großansicht öffnen

© Universität Osnabrück / IKW

Brenzlige Situationen erfordern moralische Abwägungen. Die Kognitionswissenschaftler der Uni Osnabrück beobachten mit ihrer Virtual Reality-Technik Versuchspersonen bei ihren Entscheidungen.

Download-Bild (JPG, 1 MB)

„Autonome selbstfahrende Autos werden die erste Generation von Robotern sein, die moralische Entscheidungen mitten in unserer Gesellschaft treffen. Es ist deshalb dringend notwendig, Regeln und mögliche Handlungsweisen für autonome Fahrzeuge zu entwickeln, die festlegen, wie sich solche Maschinen in unausweichlichen Unfallsituationen verhalten sollen“, so die Verfasser der Studie Prof. Dr. Peter König und Maximilian Wächter vom Institut für Kognitionswissenschaft.

Die autonome Technik wird die Zahl der jährlichen Verkehrsopfer nach Schätzungen um 90 Prozent senken. Dennoch wird es auch zu kritischen Situationen kommen, bei denen zwar ein Unfall nicht zu vermeiden ist, aber die Anzahl und Schwere der Verletzungen der möglichen Opfer vergleichbar geringer ist.

Es bleibt die Frage, wie sich selbstfahrende Autos in ausweglosen Situationen, bei denen ein Unfall nicht zu vermeiden ist, verhalten. Soll das Fahrzeug die Insassen unter allen Bedingungen schützen, oder soll ein Fahrzeug seinen Passagier für das Wohl der Allgemeinheit opfern?

Die Autoren nutzten für ihre Studie eine Virtual Reality-Technik, um das Verhalten von Versuchspersonen in Dilemma-Situationen zu beobachten. Die Teilnehmer der Studie fuhren dazu an einem nebeligen Tag durch Vorort- oder Berglandschaften. Im Verlauf der Experimente kam es dabei zu unvermeidlichen und unerwarteten Situationen, bei denen Menschen oder Gruppen von Menschen in Fahrspuren standen. „Den Menschen auf der eigenen Fahrspur auszuweichen hätte bedeutet, eine andere Anzahl an Menschen auf der nebenliegenden Fahrspur zu opfern. Für die Teilnehmer ist eine moralische Abwägung notwendig um in einer solchen Situation eine Entscheidung zu treffen“, erläutert der Osnabrücker Kognitionswissenschaftler Wächter den Versuchsablauf. Zu dem Forscherteam gehörten auch Anja Faulbauer, Anke Dittmer, Felix Blind und Silja Timm.

Die beobachteten Entscheidungen wurden dann durch eine statistische Analyse ausgewertet. „Die Ergebnisse weisen darauf hin, dass im Rahmen dieser unvermeidbaren Unfälle moralisches Verhalten größtenteils zum Wohl der Gemeinschaft entschieden wird“, so Wächter. Darauf aufbauend war es den Autoren möglich, eine normative Ethik für selbstfahrende Fahrzeuge zu entwickeln, die dem Verhalten der Probanden gerecht wird und die Gemeinschaft vor das Individuum stellt.

Die Ergebnisse der Studie „Human Decisions in Moral Dilemmas are Largely Described by Utilitarianism: Virtual Car Driving Study Provides Guidelines for Autonomous Driving Vehicles” sind erschienen in „Science and Engineering Etnics“ (https://link.springer.com/article/10.1007/s11948-018-0020-x). 

Weitere Informationen für die Medien:
Prof. Dr. Peter König, Universität Osnabrück,
Institut für Kognitionswissenschaft,
Wachsbleiche 27, 49090 Osnabrück,
Tel: +49 541 969-2399
E-Mail: pkoenig@uni-osnabrueck.de

Maximilian Wächter, Universität Osnabrück,
Institut für Kognitionswissenschaft,
Wachsbleiche 27, 49090 Osnabrück,
Tel: +49 541 969-7093,
E-Mail: mwaechter@uni-osnabrueck.de