Maschinen mit Moral – Osnabrücker Studie
Zwischen einer künstlichen Intelligenz und der wissenschaftlichen Realität von Computern besteht noch immer ein enorm großer Unterschied. Dennoch hält algorithmische Intelligenz zunehmend Einkehr in unseren Alltag. Vom Alleskönner Smartphone bis zu spezifischeren Anwendungsgebieten wie selbstfahrenden Autos. Dabei entsteht immer mehr die Angst davor, dass Maschinenintelligenz nicht imstande wäre, menschliche Entscheidungen zu treffen. Moralische Entscheidungen. Eine neurowissenschaftliche Studie der Universität Osnabrück hält dieser Befürchtung jedoch aussichtsreiche Erkenntnisse entgegen.
Studie am Institut für Kognitionswissenschaft
Die Bundesregierung setzt sich bereits mit den Voraussetzungen und Folgen automatisierter Fahrzeuge auseinander. Erst im Juni veröffentlichte die von Alexander Dobrindt (CSU) ins Leben gerufene Ethik-Kommission zu automatisierten Fahren einen Bericht. Dieser formulierte 20 ethische Leitprinzipien für die Entwicklung und den Einsatz selbstständig fahrender Autos. Die Osnabrücker Studie „Using Virtual Reality to Assess Ethical Decisions in Road Traffic Scenarios: Applicability of Value-of-Life-Based Models and Influences of Time Pressure“, erschienen im Journal „Frontiers in Behavioral Neuroscience“ , setzt sich direkt mit diesen Prinzipien auseinander. Den Wissenschaftlern galt es zunächst, menschliches Handeln beziehungsweise moralische Entscheidungen in dazu verleitenden Dilemma-Situationen zu erfassen, zu analysieren und zu verstehen. Im Anschluss wird das Verhalten der Probanden in einem Maße quantifiziert, dass man es für weitere Auswertungen und letztlich Einspeisungen in Maschinen verwenden kann.
Versuchsteilnehmer und die Simulation
Zur Erfassung moralischer Entscheidungen absolvierten Probanden eine Autofahrt in einer virtuellen Realität. Dabei konfrontierte man sie mit schwierigen Situationen, die sie zu moralischen Entscheidungen zwangen. Involviert waren dabei vor allem Menschen, Tiere und leblose Objekte, die sich in Form von Hindernissen auf der Fahrbahn manifestierten. Unabhängig von den Reaktionen der Fahrer kam es immer zu einer Kollision. Die Entscheidung konnte nur zwischen Mensch/Objekt A und Mensch/Objekt B getroffen werden.
Die Forscher berichten davon, als Ergebnis dieser Datenerhebung und statistischen Auswertung eine simple Wertigkeit festgestellt zu haben. Nach dieser sprachen die Versuchsteilnehmer Menschen, Tieren und Objekten eine jeweilige Wertigkeit in unterschiedlicher Abstufung zu. Insgesamt wurden beispielsweise eher Männer als Frauen überfahren und einer Kollision mit einem alten Menschen gaben die Probanden den Vorzug vor einem nahenden Crash mit einem Kind. Für die Entscheidungen blieben dabei nur 1 bis maximal 4 Sekunden Zeit. Da sich diese Wertigkeiten relativ gut in Form von Zahlen ausdrücken lassen und Maschinen damit nahegelegt werden können, verzeichnen die Forscher einen Nachweis für die prinzipielle Umsetzbarkeit moralisch handelnder Maschinen.
Messungen mit schwierigen Konsequenzen
Die Osnabrücker Wissenschaftler reflektieren in ihrer Studie jedoch weitergehender ihre eigenen Ergebnisse. Moral und Ethik sind stark von sozialen Werten abhängig. Vor allem in ihren Feinheiten sind moralische Entscheidungen damit sowohl historisch als auch zeitgenössisch sehr wandelbar. Eine universale Moral lässt sich auf unterschiedliche Situationen, beispielsweise im Straßenverkehr, kaum anwenden. Genauer gesagt, müssen Unternehmen und Programmierer, die moralische Routinen eingeben, entscheiden, welcher Art diese Ausformungen sein sollen. Auch wenn mit der Studie in Osnabrück nicht alle Leitprinzipien der Ethik-Kommission behandelt wurden und die Ergebnisse teilweise widersprüchlich sind – die Wissenschaftler des Instituts für Kognitionswissenschaft zeigen, dass sich Maschinen grundlegend mit Daten menschlicher moralischer Entscheidungen trainieren lassen.
Gordon
also ich glaub ja nicht an so nen science fiction kram 😀 wo maschinen die menscheit übernehmn und so oder maschinen wie menschen werden aber coole erfindung und bringt mal wieder die technik weiter haha