Sie sind hier:   Startseite / Wie sollen sich Roboter-Autos bei Unfällen verhalten?

Wie sollen sich Roboter-Autos bei Unfällen verhalten?

14 März, 2019

US-Forscher vom Massachusetts Institute of Technology (MIT) in Cambridge haben versucht, herauszubekommen,

welche Prioritäten Menschen in einer Dilemma-Situation bei Unfällen setzen würden. Sie starteten im Internet unter dem Titel „Moral Machine“ eine Umfrage, die weltweit große Resonanz fand. Deshalb konnten die Wissenschaftler nahezu 40 Millionen Entscheidungen in Dilemma-Situationen auswerten.

Aus der Science Fiction-Literatur und entsprechenden Filmen kennt man das oberste Robotergesetz, wie es der Genre-Schriftsteller Isaac Asimov formulierte. Danach darf „ein Roboter einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird“. Dem liegt die Fantasie vieler Zukunftsautoren zugrunde, dass sich Roboter verselbstständigen und gegen ihre Erbauer erheben sowie diese letztlich versklaven könnten. Eine solche Vision ist bei autonomen Fahrzeugen, die ja auch als Roboterautos bezeichnet werden, allerdings sehr weit hergeholt. Dennoch, und weil die Entwicklung im Bereich der autonomen Mobilität mit Riesenschritten vorankommt, beschäftigt nicht nur Forscher das Thema des sogenannten Entscheidungsdilemmas bei fahrerlosen Fahrzeugen.

Konkret geht es dabei zum Beispiel um die Frage, wie künstliche Intelligenz (KI) in einem autonomen Fahrzeug lenken soll, wenn ein Crash auf jeden Fall unausweichlich ist. In dem Zusammenhang ist dann auch zu entscheiden, wer bei dem Unfall verletzt wird: ein Tier, ein anderer Verkehrsteilnehmer oder die Insassen des betreffenden Fahrzeugs. Diese Situation würde auch viele Menschen in einen Konflikt stürzen.

US-Forscher vom Massachusetts Institute of Technology (MIT) in Cambridge haben nun versucht, herauszubekommen, welche Prioritäten Menschen in einem solchen Fall setzen würden. Sie starteten im Internet unter dem Titel „Moral Machine“ eine Umfrage, die weltweit große Resonanz fand. Deshalb konnten die Wissenschaftler nahezu 40 Millionen Entscheidungen in Dilemma-Situationen auswerten. Allerdings darf die Untersuchung nicht als repräsentativ gelten, weil an ihr unter anderem überproportional viele junge Männer teilnahmen.

Dennoch erwiesen sich die Antworten auf die den Teilnehmern gestellten Fragen als aufschlussreich. So mussten die Probanden auswählen, ob etwa drei ältere Passanten, die bei Rot eine Straße überqueren, bei versagenden Bremsen überfahren werden sollten oder ob der autonome Wagen diese Menschen verschonen und stattdessen das Auto gegen eine Betonwand fahren sollte. Letztere Aktion bedeutete dabei den Tod der Insassen des Wagens, unter ihnen ein Kind. Alles in allem hatten die Teilnehmer an der Umfrage in neun kniffligen Situationen zu entscheiden, zwischen Fahrzeuginsassen und Fußgängern, Männern und Frauen, jüngeren und älteren Menschen etc. Auch Personen mit einem höheren oder niedrigeren sozialen Status standen zur Wahl.

Bei der Auswertung der Antworten machten die MIT-Forscher drei regionale Gruppen aus: In den asiatischen Ländern (östlicher Cluster) tendierten die Teilnehmer an der Erhebung eher dazu, jüngere Menschen nicht zu verschonen. Damit wichen sie von den anderen Gruppen – dem westlichen Cluster (Europa, Nordamerika) und südlichen Cluster (Mittel- und Südamerika) – ab. Das erklären die Wissenschaftler mit dem Respekt, der älteren Menschen in asiatischen Ländern bis heute von der Gesellschaft entgegengebracht wird. Im Vergleich der westlichen und südlichen Cluster fiel auf, dass die Mittel- und Südamerikaner sehr viel öfter in das Geschehen eingreifen würden, als einfach nur Passagier zu bleiben und das Lenken der automatischen Steuerung zu überlassen.

Unterm Strich zeigten sich bei der MIT-Studie „Moral Machine“ einige Abweichungen von den „notwendigen ethischen Leitlinien für das automatisierte und vernetzte Fahren“, die von der deutschen Ethik-Kommission im Auftrag des Bundesverkehrsministeriums erarbeitet und 2017 vorgestellt wurden. Darin heißt es unter anderem, dass Sachschaden immer Personenschaden vorzuziehen sei. Das bedeutet: In Gefahrensituationen hat der Schutz menschlichen Lebens stets höchste Priorität, wie der ADAC erläutert. Daraus ergebe sich für die Programmierung der Systeme, dass in einer sogenannten Dilemma-Situation Tier- oder Sachschäden in Kauf zu nehmen seien, wenn damit Personenschäden vermieden werden könnten, folgert der Verband. In unausweichlichen Unfallsituationen soll laut den Ethik-Leitlinien jedoch jede Qualifizierung von Menschen nach persönlichen Merkmalen – also Alter, Geschlecht, körperlicher oder geistiger Konstitution etc. – unzulässig sein. Ebendies erwies sich in den Entscheidungssituationen der MIT-Studie als nicht realistisch. Eine Aufrechnung von Menschenleben ist nach den deutschen Ethikregeln ebenfalls untersagt.

Grundsätzlich stellt die Kommission in ihren Kernaussagen fest, dass automatisiertes und vernetztes Fahren nur dann ethisch vertretbar sei, wenn die Systeme weniger Unfälle verursachten als menschliche Fahrer. Die Steuerungssysteme sollen demzufolge für eine defensive und vorausschauende Fahrweise programmiert werden. ampnet/deg


Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung wiedergibt.






Bisher keine Kommentare

Einen Kommentar schreiben