Standort: science.ORF.at / Meldung: "Roboter lernen Tarnen und Täuschen"

Roboter mit Rädern

Roboter lernen Tarnen und Täuschen

Das Szenario könnte aus einer Endzeitgeschichte stammen, in der die Maschinen die Weltherrschaft an sich reißen: Ein Roboter legt eine falsche Fährte für einen feindlichen Soldaten und versteckt sich dann vor seinem Verfolger.

Technik 10.09.2010

Einem Team von US-Forschern ist es in einem Experiment gelungen, Robotern das Täuschen und Tarnen beizubringen.

Maschinen beim Versteckspielen

Das Experiment der beiden Forscher Ronald Arkin und Alan Wagner vom Georgia Tech Research Institute ist genial einfach: Ein Roboter versteckt sich, ein anderer Roboter sucht ihn. Der Verstecker kann zwischen drei verschiedenen Kisten als Unterschlupf wählen. Auf dem Weg zu den Verstecken sind auf einer Linie drei verschiedenfarbige Filzstifte aufgestellt, vor jedem Versteck einer.

Ersterer muss also abhängig davon, wo er sich verbergen will, einen oder mehrere Filzstifte umwerfen. Der Suchroboter merkt sich das und entscheidet abhängig davon, welche Stifte umgekippt sind, welches Versteck er überprüfen will

Das Täuschungsmanöver

So weit so gut, aber: Der sich versteckende Roboter merkt sich auch, welche Stifte er auf welchem Weg umgeworfen hat. Hat er nun zum Beispiel auf dem Weg zum ersten Versteck den grünen Stift umgeworfen, könnte er beim nächsten Versuch den grünen Stift umwerfen und dann hinter der Stiftgrenze den Weg zum zweiten Versteck einschlagen.

Der Sucher, der den umgefallenen grünen Stift erkennt, wird seiner Logik folgend das erste Versteck überprüfen - und den verborgenen Roboter nicht finden. In 75 Prozent der Fälle gelang die List. Dieses simple Manöver basiert ursprünglich auf Überlegungen, die nicht unmittelbar ins Gebiet der Robotik fallen.

Von der Sozialwissenschaft zur Technik

Forscher mit ihrem rollenden Roboter.

Georgia Tech Photo: Gary Meek

Arkin (links) und Wagner beim Experimentieren mit den "listigen" Robotern.

Die Grundlage des Experiments von Arkin und Wagner waren Theorien aus der Mathematik und Politikwissenschaft: die Spieltheorie und die Interdependenztheorie. Von diesen beiden Ansätzen ausgehend haben die Forscher einen Algorithmus entwickelt, der einem Roboter auch ermöglicht abzuschätzen, ob eine Täuschung in einer sozialen Interaktion Sinn macht.

Für das durchgeführte Experiment legten sie dem sich versteckenden Roboter zwei Schlüsselbedingen auf, die eine Täuschung rechtfertigen: Er musste mit dem anderen Roboter in Konflikt stehen, und er musste von der Täuschung persönlich profitieren.

Die Möglichkeit, sich aktiv für oder gegen ein Täuschungsmanöver zu entscheiden, soll sozial agierenden Robotern in Zukunft sowohl eine ganze Reihe an zusätzlichen Entscheidungsmöglichkeiten, als auch eine höhere Sensibilität für soziale Interaktionen bieten.

Soll man alles, was man kann?

Ein Rettungsroboter mit der Fähigkeit zur Täuschung könnte beispielsweise panische Unglücksopfer leichter beruhigen und ihre Kooperation erlangen. Auch die militärische Nutzung wurde bereits angedacht. So könnte ein "listiger" Roboter seine Verbündeten, sich selbst oder wertvolle Informationen leichter vor Feinden in Sicherheit bringen.

Diese Möglichkeiten werfen natürlich eine ganze Reihe an Fragen auf, die an der ethischen Vertretbarkeit des Unterfangens rütteln. Die beiden Wissenschaftler sind sich dessen laut eigenen Aussagen bewusst und sprechen diese Bedenken auch selbst aus.

"Uns ist klar, dass es sowohl nützliche als auch schädliche Aspekte gibt", sagt Arkin in Bezug auf das Experiment in einer Presseaussendung. "Wir unterstützen mit ganzer Kraft jede Diskussion darüber, ob täuschende Roboter angebracht sind, um zu klären, ob bzw. welche Regulationen und Richtlinien die Entwicklung solcher Roboter einschränken sollen."

Peter Stenitzer, science.ORF.at

Mehr zu dem Thema