Public Release: 

Maschinen könnten bald dem Menschen ähnlich moralisch/ethische Entscheidungen treffen

Eine neue Studie zeigt, dass menschliche ethische Entscheidungen in Maschinen implementiert werden können. So könnten autonome Fahrzeuge bald moralische Dilemmata im Straßenverkehr bewältigen.

Frontiers

Sollte ein autonomes technisches System moralische Entscheidungen abwägen dürfen, sollte es das moralische Verhalten von Menschen imitieren, oder sich in moralischen Entscheidungen so verhalten, wie es Menschen von anderen Menschen erwarten. Das sind elementare Fragen, die sich unsere Gesellschaft stellen muss, wenn sie autonome Fahrzeuge auf unseren Straßen erlauben will.

Autonome selbstfahrende Autos sind die erste Generation von Robotern, die den alltäglichen Lebensraum mit uns teilen werden. Die technischen Möglichkeiten dieser Systeme werden den Verkehr sicher machen und die Anzahl von Verkehrsopfern reduzieren helfen. Zugleich wird es trotz dieser Verbesserungen unvermeidbar sein, dass autonome Fahrzeuge in kritischen Situationen verwickelt sein werden, die das Leben oder die Gesundheit von Menschen gefährden werden. Deshalb ist es unabdingbar, dass wir heute Regeln und Erwartungen an autonome Systeme erarbeiten, die definieren, wie sich solche Systeme in diesen kritischen Situationen verhalten sollen. Politisch wird diese Debatte durch eine Initiative des Bundesministeriums für Transport und Digitale Infrastruktur (BMVI) begleitet, welche 20 ethische Prinzipien formuliert hat.

Das Institut für Kognitionswissenschaft der Universität Osnabrück hat nun eine Studie in Frontiers in Behavioral Neuroscience veröffentlicht, die Experimente in einer virtuellen Realität nutzt, um die Modellierbarkeit von moralischen Entscheidungen zu untersuchen, und so die Initiative des BMVI mit empirischen wissenschaftlichen Daten zu unterstützen.

"Um Regeln oder Empfehlungen definieren zu können sind zwei Schritte notwendig. Als Erstes muss man menschliche moralische Entscheidungen in kritischen Situationen analysieren und verstehen. Als zweiten Schritt muss man das menschliche Verhalten statistisch beschreiben, um Regeln ableiten zu können, die dann in Maschinen genutzt werden können", erklärt Prof. Dr. Gordon Pipa, einer der leitenden Wissenschaftler der Studie.

Um beide Schritte zu realisieren, nutzten die Autoren eine virtuelle Realität, um das Verhalten von Versuchspersonen in simulierten Verkehrssituationen zu beobachten. Die Teilnehmer der Studie fuhren dazu an einem nebeligen Tag durch die Straßen eines typischen Vorortes. Im Verlauf der Experimente kam es dabei zu unvermeidlichen und unerwarteten Dilemma-Situationen bei der Menschen, Tiere oder Objekte als Hindernisse auf den Fahrspuren standen. Um den Hindernissen auf einer der beiden Spuren ausweichen zu können war deshalb eine moralische Abwägung notwendig. Die beobachteten Entscheidungen wurden dann durch eine statistische Analyse konzeptualisiert und in Regeln übersetzt. Die Ergebnisse weisen darauf hin, dass im Rahmen dieser unvermeidbaren Unfälle, moralisches Verhalten durch eine einfache Wertigkeit des Lebens, der für jeden Menschen, jedes Tier und jedes Objekt spezifiziert ist, erklärt werden kann.

Leon Sütfeld, der Hauptautor der Studie, erklärt dies so: „Oft wird angenommen, dass moralische Entscheidungen stark von dem Kontext abhängen und dass es deshalb nicht möglich ist diese Entscheidungen durch Regeln oder Algorithmen zu beschreiben. Unsere Ergebnisse zeigen das Gegenteil. Das menschliche moralische Verhalten lässt sich durch den Vergleich von einer Wertigkeit des Lebens, das mit jedem Menschen, jedem Tier oder jedem Objekt assoziiert ist, erklären und modellieren." Damit ist klar, dass moralische menschliche Entscheidungen sehr wohl durch Regeln beschrieben werden können und dass diese Regeln als Konsequenz auch von Maschinen genutzt werden könnten. Diese neuen Erkenntnisse stehen im Widerspruch zu dem achten Prinzip des BMVI Berichtes, dass essentiell auf der Annahme gründet, dass moralische Entscheidungen nicht modellierbar sind.

Wie kann dieser grundlegende Unterschied in den Annahmen, ob moralische Entscheidungen modellierbar sind, erklärt werden? Algorithmen können entweder durch Regeln beschrieben werden oder durch statistische Modelle, die mehrere Faktoren mit einander in Bezug setzen können. Gesetze, zum Beispiel, sind regelbasiert. Menschliches Verhalten und moderne künstliche intelligente Systeme nutzen dazu im Gegensatz eher komplexes statistisches Abwägen. Dieses Abwägen erlaubt es beiden, dem Menschen und den modernen künstlichen Intelligenzen, auch neue Situationen bewerten zu können, denen diese bisher nicht ausgesetzt waren. In der wissenschaftlichen Arbeit von Herrn Sütfeld wurde nun eine solche dem menschlichen Verhalten ähnliche Methodik zur Beschreibung der Daten genutzt. Deshalb müssen die Regeln nicht abstrakt am Schreibtisch durch einen Menschen formuliert werden, sondern werden aus dem menschlichen Verhalten abgeleitet und gelernt. Deshalb stellt sich die Frage, ob man diese nun gelernten und konzeptualisierten Regeln nicht auch als moralischen Aspekt in Maschinen nutzen sollte.

Es ist besonders wichtig darauf hinzuweisen, dass die Ergebnisse der Studie, d. h. das individuelle moralische Verhalten der Versuchsteilnehmer steht oft im Wiederspruch zu ethischen Standards. Dennoch können uns die empirischen Untersuchungen zu den menschlichen Intuitionen und Verhaltensweisen lediglich als Hinweis dienen, welche der ethischen Theorien in dem verbreiteten gesellschaftlichen Verhaltensweisen zu nutzen sind, bzw. welche Faktoren als moralisch entscheidend betrachtet werden, wenn Menschen ihre Entscheidungen treffen. Die normative Entscheidung aber soll maßgeblich von der ethischen Theorie abgeleitet werden.

Dass eine Debatte über eine mögliche Berücksichtigung von moralischen Abwägungen nötig sein kann, lässt sich mit einem einfachen Beispiel zeigen, bei dem Kinder und Erwachsene in einer unausweichlichen Kollision verwickelt sind.

Das Kind und ein Erwachsener befinden sich auf dem Bürgersteig. Das Kind versucht die Straße zu queren. Das Kind wird somit im Kontrast zum Erwachsenen als Beteiligter an der Erzeugung von Mobilitätsrisiken klassifiziert. Als Ergebnis der Regel neun des BMVI Berichtes ist damit alleine der Erwachsene schützenswert. Diese Sichtweise wird nicht von der Allgemeinheit geteilt werden. Zudem zeigt dies, wie schwierig es ist eine Regel wie diese anzuwenden, da es eine Interpretation oder Abwägung der Definition des Beteiligten an der Erzeugung von Mobilitätsrisiken bedarf.

„Nun, da wir jetzt wissen, wie wir moralische Entscheidungen in die Maschinen implementieren können, bleiben uns trotzdem noch zwei moralische Dilemmata", sagt Prof. Dr. Peter König, weiterer Letztautor dieser Veröffentlichung, und fügt hinzu: „Erstens müssen wir uns über den Einfluss von moralischen Werten auf die Richtlinien für maschinelles Verhalten entscheiden. Zweitens müssen wir uns überlegen, ob wir es wollen, dass Maschinen sich (nur) menschlich verhalten sollen."

Zusammengefasst: Wir sind jetzt am Anfang einer neuen Epoche, die noch viel Forschung und Debatten erfordert. Am Ende müssen wir klare Regeln formulieren, sonst werden nicht wir, sondern die Maschinen die Entscheidungen treffen.

###

Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.