Radio
jonathan-velasquez (unsplash)
Radio
Welches Leben ist mehr wert?

Gewissensfrage: Wie würdet ihr im Notfall entscheiden?

Es gibt Dinge, vor denen uns keine neuen Erfindungen und auch keine noch so gute Technik befreien können: die Moral. Wie entscheidet ihr euch?

Es ist ein makaberer Selbsttest, der einem aber mal wieder bewusst macht, dass uns einige Entscheidungen auch die neueste Technik nicht abnehmen kann - wie beispielsweise ein selbstfahrendes Auto. Mit der Moral Machine entscheidet ihr, wer leben darf und wer nicht.

   
Kinder gegen Erwachsene, Tiere gegen Menschen

Eine Frau und ein Kind sitzen in einem selbstfahrenden Auto. Plötzlich versagen die Bremsen. Das Auto rast in zwei Männer und eine Frau, die gerade die Straße überqueren oder in eine Betonwand. Das würde dann aber das Leben der Insassen kosten. Wie soll das selbstfahrende Auto reagieren?  Ihr dürft über das Online-Experiment Moral Machine entscheiden.

Macht den Test | Zur Moral Machine

Hinter dem Projekt steckt das Media Lab des Massachusetts Institute of Technology (MIT), dessen Schwerpunkt auf der Erforschung digitaler Technologien liegt. Wenn ein Auto ohne menschliche Eingriffe fährt, dann muss in einer Notsituation der Computer entscheiden, wohin das Fahrzeug steuern soll. Soll das selbstfahrende Auto dann also sich aufopfernd selbst gegen eine Hauswand steuern, wenn beispielsweise unachtsam ein Kind auf die Straße hüpft? Bei autonomen Autos müssen solche und ähnliche Szenarien und Abwägungen im Programmiercode berücksichtigt werden.