Roboter mit Fehlern

Eine X-Student Research Group der Berlin University Alliance (BUA) hat an der TU Berlin die Zusammenarbeit von Menschen und Robotern untersucht

Paul hat auf mich gewartet. So wie er es immer tut, wenn die Menschen eine Pause machen. Er wird während unserer Zusammenarbeit auf mich achten, damit wir nicht zusammenstoßen. So hat es mir die Versuchsleiterin erklärt; und nun versetze ich nach Pauls Anweisung kleine Holzscheiben mit Loch in der Mitte von einem Pfosten auf den anderen. „Turm von Hanoi“ heißt das mathematische Knobelspiel, bei dem man eine Scheiben-Pyramide vom ganz linken von drei Pfosten zum ganz rechten versetzen muss. Der Haken: Man darf immer nur eine Scheibe auf einmal umlegen und es darf nie eine größere auf einer kleineren landen.

Während Paul mir mit eleganten Bewegungen seines Roboterarms andeutet, welche Scheibe ich nun nehmen und auf welchen Pfosten ich sie stecken soll, beobachte ich seine Vorgehensweise genau und achte auf Fehler. Denn mir wurde die Strategie, die den Turm von Hanoi löst, vorher erklärt. Paul mache sehr selten noch etwas falsch, hat die Versuchsleiterin gesagt, sei aber lernfähig und entwickele sich weiter. Beim Versetzen der Scheiben bekomme ich das erstaunliche Gefühl, dass hier eine echte Zusammenarbeit mit dem Roboter stattfindet.

Noch vor dem Bachelor an aktueller Forschung arbeiten

Eileen Roesler vom Fachgebiet „Arbeits-, Ingenieur- und Organisationspsychologie“ der TU Berlin lacht. Genau das war beabsichtigt. „Es gibt noch relativ wenige Studien zur Mensch-Roboter-Interaktion außerhalb von serviceorientierten oder sozialen Kontexten“, sagt sie. Dieses wissenschaftliche Interesse hat sie zusammen mit ihrem Faible für die Lehre zu einer der neuen „X-Student Research Groups“ der Berlin University Alliance (BUA) inspiriert. In diesen einsemestrigen Forschungsseminaren können Student*innen noch vor ihrer Bachelor-Arbeit, aber auch später, gemeinsam mit anderen unter der Anleitung von Nachwuchswissenschaftler*innen an aktueller Forschung arbeiten. „Macht es einen Unterschied, ob ein Roboter eher menschenähnlich oder eher technisch wahrgenommen wird, wenn dieser einen Fehler macht? Das war unsere Forschungsfrage. Verzeiht man einem menschenähnlichen Roboter eher einen Fehler? Dass dies zutreffen könnte, war unsere Ausgangshypothese“, erklärt Roesler.

Weil ich nun schon viel zu viel weiß, macht es keinen Sinn, weiter als Proband zusammen mit Paul Türmchen zu bauen. „In einem wirklichen Versuch, wie er mit den freiwilligen Testpersonen durchgeführt worden ist, hätten wir selbst fast überhaupt nicht mit Ihnen gesprochen. Denn die Stimmlage und andere Eigenschaften der Versuchsleiter*in könnten Sie beeinflussen“, sagt Marie-Elisabeth Makohl, Bachelor-Studentin im Fach Informatik an der TU Berlin und eine der sechs Student*innen in der X-Student Research Group. Daher wurden Testpersonen schriftlich über den Roboter und die Aufgabenstellung aufgeklärt. Dabei war er einmal „Paul“, in der anderen Versuchsgruppe aber „PR-5“, der nicht etwa „wartet“ wie Paul, sondern „im Stillstandsmodus verbleibt“. In dieser technischen Beschreibung ist der Roboter auch nicht „lernfähig“, sondern „die programmierte Logik selbstlernend“.

Überraschendes Ergebnis

Macht es nun einen Unterschied, ob Paul oder PR-5 plötzlich regelwidrig die Proband*in eine größere auf eine kleinere Scheibe setzen lässt? Dieser absichtlich von den Forscher*innen ausgelöste Fehler brachte ein überraschendes Ergebnis: Entgegen der Vermutung gibt es den Trend, dass man dem als menschenähnlich beschriebenen Roboter offenbar Fehler weniger verzeiht. „Das äußert sich zum Beispiel bei der Frage, ob man bei einem weiteren Durchgang wieder auf die Hilfe des Roboters zurückgreifen möchte oder ob man sich lieber selber an die Lösungsstrategie erinnert“, sagt Marie-Elisabeth Makohl. Auch diese Frage wurde wieder nicht mündlich gestellt, sondern war integriert in einen Fragebogen, den die Proband*innen vor dem Versuch, nach den ersten fehlerfreien Durchgängen sowie nach dem Durchgang mit einem Fehler ausfüllen mussten. Andere Fragen darin waren zum Beispiel, in welchem Maße man die Handlungsweise des Roboters als transparent wahrnimmt oder wie sehr man ihm vertraut.

„Die Besonderheit war, dass wir wirklich im Team mit Eileen Roesler das gesamte Vorgehen gemeinsam diskutieren und entwickeln konnten. Auch die Aufgabe selber, den Turm von Hanoi, haben wir in der Gruppe ausgewählt. Vorher waren zum Beispiel auch Puzzle-Aufgaben und anderes im Gespräch“, sagt Makohl. Zudem sei die interdisziplinäre Zusammensetzung der Gruppe, die sowohl aus angehenden Informatiker*innen wie auch Psycholog*innen bestand, sehr inspirierend gewesen. Arbeitsteilig haben die Student*innen auch die anderen Tätigkeiten, die zu einem richtigen Forschungsprojekt gehören, übernommen. So wurde ein Ethik-Antrag gestellt und die Studie mit dem genauen Versuchsaufbau, den Fragen und den Arbeitshypothesen sogar auf einer Online-Plattform präregistriert. Mit diesem neuen Werkzeug soll in der Wissenschaft sichergestellt werden, dass die Forscher*innen ihre Hypothesen und Vorgehensweise nicht im Nachhinein an ihre Ergebnisse anpassen.

In der Forschung braucht man einen langen Atem

Und was hat es nun auf sich mit dem Ergebnis, dass wir menschenähnlichen Robotern Fehler nicht so leicht verzeihen? Sind wir gegenüber Artgenossen doch missgünstiger? Eileen Roesler muss meinen Interpretationselan leider bremsen. „Es ist tatsächlich nur ein Trend in den Antworten der Proband*innen, kein gesichertes Ergebnis“, sagt sie. Hinzu kommt: Mit 52 Personen war die Menge der Testpersonen eigentlich zu klein, die Wissenschaftler*innen hatten auf 120 Teilnehmende gehofft. Corona hat auch hier die Forschung behindert, denn die Universität war zum einen deutlich weniger stark besucht im Vergleich zu den Zeiten vor der Pandemie und zum anderen waren die Menschen zusätzlichen Treffen stärker abgeneigt.

Als weiteres Problem kam hinzu, dass der ursprünglich für den menschenähnlichen Part vorgesehene Roboter Pepper – mit nettem Kindergesicht und großen Augen – wegen eines Sensorfehlers nicht einsatzbereit war. Hier wäre der Effekt aufgrund der äußeren Unterschiede vermutlich noch größer gewesen. Eileen Roesler lässt sich davon aber nicht entmutigen. „Wir werden der Forschungsfrage weiter nachgehen. Immerhin haben die Studierenden mit diesem Experiment die Herangehensweise und auch die Herausforderungen eines Forschungsprojekts kennenlernen können.“ Und die Studierenden in der X-Student Research Group? „Natürlich hatten wir uns eine größere Beteiligung an unserem Experiment erhofft, auch im Hinblick auf die Veröffentlichung eines Papers in diesem erst geringfügig erforschten Gebiet“, sagt Marie-Elisabeth Makohl. Auf der anderen Seite hätte man so eben auch gelernt, dass man in der Forschung oft einen langen Atem braucht.

Autor: Wolfgang Richter