‘Programmierer dürfen nicht über den Tod eines Menschen entscheiden’

Wann hat die Fahrerin die Kontrolle, wann die Technik? Christoph Lütge fordert e
Wann hat die Fahrerin die Kontrolle, wann die Technik? Christoph Lütge fordert eine eindeutige Verantwortung. (Bild: chombosan / istockphoto.com)
Was und wie dürfen Autos entscheiden, wenn sie künftig autonom fahren? Eine Ethik-Kommission hat im Auftrag der Bundesregierung Leitlinien erarbeitet. Prof. Christoph Lütge, Wirtschaftsethiker an der Technischen Universität München (TUM) und Mitglied der Kommission, erklärt, wann die Technik nicht zwischen Kindern und Erwachsenen unterscheiden darf und warum niemand gezwungen werden sollte, die Kontrolle an sein Auto abzugeben. Bundesverkehrsminister Alexander Dobrindt betont, dass der Bericht der Kommission das weltweit erste ethische Regelwerk zum automatisierten Fahren sei. 14 Philosophen, Verfassungsrechtler, Theologen, Ingenieure und Verbraucherschützer haben zehn Monate lang debattiert und autonome Autos selbst getestet. Einer von ihnen ist Christoph Lütge , Professor für Wirtschaftsethik an der TUM. Professor Lütge, nehmen wir eine Situation an, in der eine Kollision mit Menschen nicht zu vermeiden ist. Es gibt aber die Alternative, ein Kind zu treffen oder einen alten Menschen. Wie soll ein autonom fahrendes Auto entscheiden? Es darf keine Qualifizierung nach persönlichen Merkmalen geben, egal ob nach Alter, körperlicher Verfassung oder Geschlecht. Die Menschenwürde ist absolut. Deshalb dürfen Fahrzeuge nicht in dem Sinne programmiert werden: Im Zweifel trifft es den Mann mit dem Rollator. Obwohl die meisten Fahrerinnen und Fahrer wohl diese Entscheidung treffen würden?
account creation

TO READ THIS ARTICLE, CREATE YOUR ACCOUNT

And extend your reading, free of charge and with no commitment.



Your Benefits

  • Access to all content
  • Receive newsmails for news and jobs
  • Post ads

myScience