Standort: science.ORF.at / Meldung: "Auch Maschinen brauchen Moral"

Mehrere tanzende Roboter namens "Robi" aus Japan

Auch Maschinen brauchen Moral

Kann ein Roboter Gut und Böse unterscheiden? Noch nicht, sagt der Kognitionswissenschaftler Matthias Scheutz. Aber die Zeit drängt, dass autonome Maschinen auch moralische Probleme lösen können. Denn ihre Aufgaben werden immer komplexer.

Technologiegespräche Alpbach 01.09.2015

Sie mähen unaufgefordert den Rasen oder arbeiten als selbstständige Staubsauger in der Wohnung - Roboter, die mit Menschen leben und für sie Aufgaben übernehmen, gibt es bereits. Und es wird nicht mehr lange dauern, bis autonome Roboter wie selbstverständlich im Straßenverkehr unterwegs sind oder in der Altenpflege ihren Dienst verrichten.

Je selbstständiger diese Maschinen in sozialen Kontexten agieren, desto besser müssen sie mit Konfliktsituationen umgehen können. Der Informatiker und Kognitionswissenschaftler Matthias Scheutz arbeitet am "human-robot interaction laboratory" der Tufts University daran, Robotern genau diese Fähigkeit zu geben.

Bremsen oder Ausweichen?

Eine solche ethische Kontrollarchitektur für Roboter könnte auch bei selbstfahrenden Autos zum Einsatz kommen. Die entsprechende Robotertechnologie ist hier bereits vorhanden - die Fahrzeuge können u.a. einschätzen, ob der Fahrer vor ihnen risikoaffin ist oder nicht - aber die selbstfahrenden Autos sind nicht in der Lage, in Krisensituationen Entscheidungen zu treffen.

Zur Person

Matthias Scheutz ist Professor für Cognitive and Computer Science und Direktor des Human-Robot Interaction Laboratory an der Tufts University in Massachusetts in den USA.

Technologiegespräche in Alpbach:

Von 27. bis 29. August finden im Rahmen des Europäischen Forums Alpbach die Technologiegespräche statt, organisiert vom Austrian Institute of Technology (AIT) und der Ö1-Wissenschaftsredaktion . Das Thema heuer lautet "UnGleichheit". Davor sind in science.ORF.at Interviews mit Wissenschaftlerinnen und Wissenschaftlern, die bei den Technologiegesprächen vortragen oder moderieren.

Links:

Ö1 Hinweise:

Eine Reihe von Sendungen begleitet das Europäische Forum Alpbach 2015 in Ö1. Die Technologiegespräche stehen im Mittelpunkt von Beiträgen in den Journalen, in Wissen aktuell, in den Dimensionen und bei der Kinderuni.

Matthias Scheutz nennt ein Beispiel: Ein Kind springt unvorhersehbar vom Gehsteig auf die Fahrbahn. Die Distanz zwischen ihm und dem Fahrzeug ist so kurz, dass der Roboter zwar feststellen kann, dass sich ein Hindernis auf der Straße befindet, er kann jedoch nicht mehr rechtzeitig bremsen. "Wir haben hier ein moralisches Dilemma", sagt Scheutz, "entweder das Auto versucht zu bremsen und überrollt das Kind, was mit der vorhandenen Technik ziemlich sich der Fall wäre. Oder das Auto versucht auszuweichen."

Je nachdem wie die konkrete Situation aussieht, muss innerhalb kürzester Zeit eine Entscheidung getroffen werden: Könnte das autonome Fahrzeug in parkende Autos ausweichen? Oder in den Gegenverkehr? "Wenn ein Lastwagen im Gegenverkehr auf das Fahrzeug zukommt, dann wird dem wahrscheinlich wenig passieren, aber die Passagiere des selbstfahrenden Autos könnten verletzt oder getötet werden", erläutert Scheutz weiter. "Was, wenn es ein Schulbus ist? Dann könnten unter Umständen noch mehr Kinder verletzt werden."

Trolley-Probleme und andere Dilemmata

Empirische Studien haben gezeigt, dass auch Menschen in solchen Situationen Schwierigkeiten haben, schnell Entscheidungen zu treffen. In sozialpsychologischen Untersuchen werden diese Zwickmühlen "Trolley- Probleme" genannt, abgeleitet vom englischen Ausdruck für Straßenbahn.

Das bekannteste moralische Dilemma dieser Experimente beschreibt folgende Situation: Eine Straßenbahn gerät außer Kontrolle und droht fünf Personen zu überrollen. Die Straßenbahn könnte umgelenkt werden, würde dann jedoch einen anderen Menschen tödlich verletzen. Auch Roboter müssten in der Lage sein, hier eine Entscheidung zu treffen, betont Matthias Scheutz: "Der Roboter müsste logisch schlussfolgern können, ob es besser ist, einen Menschen zu opfern, um fünf zu retten, oder keine Handlung zu setzen und fünf Menschen sterben zu lassen."

Höhere Erwartungen an Roboter

In solchen Situationen ein Urteil zu bilden, ist kompliziert genug. Doch es kommt erschwerend hinzu, dass Menschen an Roboter höhere ethische Erwartungen haben als an ihre Mitmenschen. Das haben aktuelle wissenschaftliche Ergebnisse von Matthias Scheutz gezeigt. Für den Computer- und Kognitionswissenschaftler verdeutlicht das die Notwendigkeit, autonome Roboter dazu zu befähigen, moralisch komplexe Situationen zu erkennen und logische Schlussfolgerungen daraus ableiten zu können.

Um das möglich zu machen, brauchen die Wissenschaftler der Tufts University weitere sozialpsychologische Daten zu moralischen Entscheidungsprozessen beim Menschen. Denn in den Bereichen, in denen Roboter in den nächsten Jahren zum Einsatz kommen sollen, könnten die Maschinen großen Schaden anrichten, etwa in der Pflege von älteren Menschen. Matthias Scheutz nennt ein Beispiel: Ein Pflegeroboter ist darauf programmiert einen bettlägerigen Patienten schmerzfrei zu halten. Aber er darf die Schmerzmittel nur verabreichen, wenn er davor bei einer Aufsichtsperson um Erlaubnis gefragt hat. Doch der Roboter kann keinen Kontakt herstellen.

"Was soll dieser Roboter machen? Er kann seine Aufgabe nicht erfüllen, den die Situation widerspricht seiner Programmierung", erklärt Mattias Scheutz. Und er ergänzt, dass diese komplexen Probleme mit der Breite des Anwendungsfeldes zusammenhängen: "Ein autonomer Rasenmäher wird nicht vor moralische Zwickmühlen gestellt."

Überlegene Maschine?

Noch können die Roboter solche Situationen nicht bewältigen: Sie sind nicht dazu in der Lage, Risiken abzuwägen. Aber genau hier könnten die Maschinen dem Menschen in der Urteilsfindung überlegen sein, resümiert Scheutz: "Wenn man als Mensch mit so einem moralischen Dilemma konfrontiert wird und unter Druck steht, dann kommen Emotionen ins Spiel. Und hier gibt es für die Roboter unter Umständen eine Möglichkeit wirklich hilfreich zu sein, weil sie diese Emotionen nicht haben und auch nicht brauchen."

Marlene Nowotny, Ö1 Wissenschaft

Mehr über die Technologiegespräche 2015: