Kognitionspsychologie und Kognitive Ergonomie

Forschungsschwerpunkte

Neuronale Korrelate sozialer Mensch-Roboter Interaktionen

In sozialen Mensch-Mensch Interaktionen werden Handlungen in der Regel basierend auf internen Zuständen (z.B., Emotionen, Intentionen oder Motivationen) interpretiert und vorhergesagt. Dabei schreibt man dem/der Interaktionspartner*in zunächst die generelle Fähigkeit zu, interne Zustände zu besitzen (dieser Prozess heißt mind perception) und trifft dann entsprechende Schlussfolgerungen (dieser Prozess heißt mentalizing). „Mind“ kann aber nicht nur Menschen zugeschrieben werden, sondern auch Entitäten, die per se keine internen Zustände haben (z.B., technische Systeme wie Roboter, Maschinen oder KI) oder deren Mind-Status unklar ist (z.B., Tiere). Forschungsarbeiten haben gezeigt, dass der Grad zu dem Mind Perception in der Mensch-Technik Interaktion stattfindet, einen großen Einfluss darauf hat, wie wir mit technischen Systemen interagieren (z.B., Vertrauen, Prozialität, Moral) und wie wir ihr Verhalten interpretieren (z.B., Intentionalität) oder darauf reagieren (z.B., Koordination von Handlungen). An der TUB verwenden wir verhaltens- und neurophysiologische Messungen (z.B., Reaktionszeiten, Eye- und Mouse-tracking, EEG), um zu untersuchen, unter welchen Bedingungen nicht-menschlichen Agenten mentale Zustände zugeschrieben werden und welche Auswirkungen dies auf kognitive (z.B., Leistung, Arbeitsaufteilung), emotionale (z.B., Vertrauen) und motivationale (z.B., Akzeptanz) Parameter in sozialen Interaktionen mit technischen Systemen hat.

Relevante Publikationen:

  • Abubshait, A., Beatty, P. J., McDonald, C., Hassall, C.D., Krigolson, O. & Wiese, E. (2021). A win-win situation: Does familiarity with a social robot modulate feedback monitoring and learning? Cognitive, Affective and Behavioral Neurosciences, 21, 763-775
  • Wiese, E., Metta, G., & Wykowska, A. (2017). Robots as Intentional Agents: Using neuroscientific methods to make robots appear more social. Frontiers in Psychology: Cognitive Science8:1663.
  • Özdem, C.*, Wiese, E.*, Wykowska, A., Müller, H.J., Brass, M., & van Overwalle, F. (2016). Believing androids: fMRI activation in the right temporo-parietal junction is modulated by ascribing intentions to non-human agents. Social Neuroscience12 (5), 582-593 *shared first authorship
  • Wykowska, A.*, Wiese, E.*, Prosser, A., & Müller, H.J.  (2014). Beliefs about the minds of others influence how we process sensory information. PLoS ONE 9(4): e94339*shared first authorship

Soziale Kognition in Langzeit Mensch-Roboter Interaktionen

Erfüllende zwischenmenschliche Beziehungen entstehen oft nicht sofort, sondern entwickeln sich im Laufe der Zeit: durch wiederholte und zum Teil auch vorhersagbare Interaktionen werden Fremde zu Freunden. Geht man von einem solchen Entwicklungsprozess aus, ist es nicht verwunderlich, dass sich nahezu alle sozioemotionalen und kognitiven Prozesse, die für den Aufbau von Beziehungen relevant sind (z.B., Vertrauen, Kooperation oder Handlungsvorhersage) im Laufe der Zeit verändern. Obwohl man eine ähnliche Veränderung sozial-kognitiver Parameter über die Zeit auch in der Mensch-Technik-Interaktionen erwarten würde, gibt es überraschenderweise nur wenige empirische Studien, die sich mit der Dynamik sozialer Kognition in langfristigen Mensch-Technik Interaktionen beschäftigen. Um diese Forschungslücke zu schließen, verwenden wir an der TUB handelsübliche soziale Roboter (sogenannte off-the-shelf companion robots) wie Cozmo oder Emo um anhand von verhaltens- und neurophysiologischen Messungen in Alltagsumgebungen (z.B., Arbeitsplatz, zu Hause) zu untersuchen, wie sich Interaktionen zwischen Mensch und Technik im Laufe der Zeit verändern und wie sich dies auf kognitive, emotionale und motivationale Parameter auswirkt.

Relevante Publikationen:

  • Abubshait, A., McDonald, C., & Wiese, E. (under review). Long-term experience with the social robot Cozmo modulates neural correlates of feedback processing. Scientific Reports
  • Abubshait, A., McDonald, C.G., & Wiese, E. (2021). Examining Social Cognition with Embodied Robots: Does Prior Experience with a Robot Impact Feedback-Associated Learning via a Gambling Task? Journal of Cognition, 4(1): 28
  • Abubshait, A., & Wiese, E. (2017). You look human, but act like a machine: Agent appearance and behavior modulate different aspects of human-robot interaction. Frontiers in Psychology: Cognitive Science8:1393. doi: 10.3389/fpsyg.2017.01393.
  • Wiese, E., Metta, G., & Wykowska, A. (2017). Robots as Intentional Agents: Using neuroscientific methods to make robots appear more social. Frontiers in Psychology: Cognitive Science8:1663.

Negative Konsequenzen anthropomorpher Gestaltung von technischen Systemen

Die Uncanny Valley (UV) Hypothese besagt, dass künstliche soziale Agenten ein tiefes Gefühl von Unbehagen auslösen können, wenn sie morphologisch so gestaltet sind, dass sie zwar sehr menschenähnlich aussehen, aber eben nicht vollständig das menschliche Aussehen nachbilden (z.B. sogenannte Geminoid Roboter). Obwohl die UV-Hypothese inzwischen sowohl in den Medien als auch in der Wissenschaft weitestgehend anerkannt ist, sind sowohl empirische Untersuchungen als auch theoretische Erklärungsmodelle zu dem Thema immer noch ziemlich uneinheitlich. Eine mögliche Erklärung geht davon aus, dass das menschliche Gehirn beim Anblick eines sozialen Agenten automatisch versucht, diesen anhand seiner Morphologie (also z.B., seines Gesichts, Körpers und / oder Stimme) als menschlich oder nicht-menschlich zu kategorisieren und dass diese Kategorisierung bei Agenten, die in der Uncanny Valley angesiedelt sind mit einem kognitiven Konflikt verbunden ist, dessen Auflösung kognitive Ressourcen benötigt (man spricht hier von categorical uncertainty). An der TUB erheben wir Verhaltens- und neurophysiologische Parameter (z.B., Mouse-tracking und EEG) um zu untersuchen, (i) ob kognitiver Konflikt und damit verbundene erhöhte Arbeitsgedächtnisbelastung tatsächlich eine mögliche Erklärung für die UV sind und falls dem so sein sollte, (ii) wie stark sich diese zusätzliche kognitive Belastung auf die Performanz bei der Aufgabenausführung mit stark anthropomorphen Agenten auswirkt.

Relevante Publikationen:

Kooperation und Koordination in Mensch-Technik Teams

Roboter werden zunehmend als Partner in Alltagssituationen betrachtet (z.B., Service- oder Companion Roboter) und Interaktionen mit ihnen sind oft nicht nur dyadisch, sondern finden häufig auch in Teamkonstellationen statt. Wenn Roboter (und soziale KI) in den Alltag integriert werden sollen, besteht eine große Herausforderung darin, diese Agenten so zu konzipieren, dass sie die Bedürfnisse, Gefühle, Intentionen und Performanz aller Mitglieder eines Teams wahrnehmen und vorhersagen können und ihr eigenes Verhalten dementsprechend anpassen. Eine besondere Herausforderung ist hierbei, dass einzelne Teammitglieder bisweilen sehr unterschiedliche kognitive Fähigkeiten, emotionale Zustände und motivationale Beweggründe aufweisen können, weswegen das Verhalten aller Teammitglieder so kalibriert sein muss, dass eine harmonische und zielführende Zusammenarbeit möglich ist. Für die Vorhersage menschlichen Verhaltens besitzen wir grundsätzlich gute mentale Modelle, was für das Verhalten technischer Agenten nicht unbedingt der Fall ist. Auch ist nicht geklärt, wie Prozesse in gemischten Mensch-Maschine Teams koordiniert werden, welche Agenten- und Verhaltensparameter Kooperation, effiziente Aufgabenaufteilung und gegenseitiges Vertrauen fördern und unter welchen Bedingungen Menschen bereit sind, Ratschläge von maschinellen Agenten anzunehmen oder Aufgaben an sie abzugeben. An der TUB versuchen wir mit Hilfe von behavioralen und neurophysiologischen Maßen genau diese sozial-kognitiven Aspekte in Mensch-Roboter-Teams zu untersuchen und zu erforschen, wie verschiedene Teamzusammensetzungen sowie spezifische Merkmale der Agenten, der Interaktion und der Situation die gemeinsame Teamleistung beeinflussen.

Relevante Publikationen:

Ethische Aspekte sozialer Interaktionen mit Künstlicher Intelligenz

Die Interaktion mit künstlicher Intelligenz und Bots kann besonders dann ein Problem sein, wenn sie keine direkt wahrnehmbare Repräsentation in der physikalischen Welt haben (d.h., nicht sichtbar oder nicht „embodied“ sind), wenn wir nur das Ergebnis ihrer Handlungen sehen aber nicht, wie sie dieses Ergebnis generiert haben (z.B., Bots, die gefälschte Likes oder Nachrichten auf Social-Media-Plattformen produzieren) oder wenn Informationen über ihre Wirkweise aus komplexen Verhaltensweisen in Situationen mit hohem Workload abgeleitet werden müssen (z.B., Entscheidungen im Kontext des autonomen Fahrens oder in der Medizin). An der TUB erforschen wir, ob Menschen Entscheidungen in komplexen Umgebungen, die von anderen Menschen generiert wurden von solchen unterschieden können, die von künstlich-intelligenten Systemen generiert wurden und wie Menschenähnlichkeit im Verhalten oder Aussehen von KI beeinflusst, ob wir kooperieren, uns unfair verhalten und / oder prosoziales Verhalten zeigen. Für die Untersuchung dieser Fragestellung verwenden wir an der TUB eine videospiel-basierte Variante des klassischen Turing-Tests, die es erlaubt sowohl das Aussehen als auch die Verhaltensweisen eines virtuellen Charakters flexibel zu verändern und die tatsächliche Identität des Spielers (Mensch oder KI) dahinter zu verbergen.

Relevante Publikationen:

  • Tulk-Jesso, S.T., Kennedy, W.G., & Wiese, E. (2020). Behavioral Cues of Humanness in Complex Environments: How People Engage with Human and Artificially Intelligent Agents in a Multiplayer Videogame. Frontiers in Robotics and AI, 7.
  • Tulk, S. & Wiese, E. (2018). Reasoning about information provided by bots. Frontiers in Neuroscience: 12.

Cognitive Offloading in Mensch-Technik Interaktionen

Cognitive Offloading Theorien besagen, dass Kognition sowohl intern (d.h. im Gehirn) als auch extern (d.h. im Körper und/oder in der technischen Umgebung) stattfinden kann. So entsteht ein geteilter Repräsentationsraum innerhalb dessen die Problemlösung stattfindet: bestimmte Aspekte der Problemlösung werden internal erledigt, andere external durch Interaktion mit der physikalischen Umgebung. Offloading kann bei komplexen Problemen von Vorteil sein, weil es zur Entlastung von Arbeits- und Langzeitgedächtnis beitragen und somit Ressourcen für kreatives und schlussfolgerndes Denken freimachen kann. Das Externalisieren eines internen Prozesses (z.B. das Zeichnen einer Idee), kann außerdem stimulierend wirken und dadurch zu einem besseren Ergebnis führen. Das Einbeziehen von externen Ressourcen kann aber natürlich auch negativ sein, z.B. wenn es von der eigentlichen Aufgabe ablenkt oder wenn die externen Tools so gestaltet sind, dass mehr Zeit mit ihnen verbracht wird als für die Aufgabe nötig wäre (siehe auch attention economy bzw. persuasive technology). Obwohl cognitive offloading für ein breites Spektrum von Mensch-Maschine-Interaktionen relevant ist, sind die Prozesse, durch die Menschen ihre technische Umgebung in die Problemlösung einbeziehen, nur unzureichend verstanden. Wir untersuchen an der TUB welche kognitiven Prozesse bevorzugt auf technische Systeme verlagert werden, welche metakognitiven Prozesse beim Cognitive Offloading eine Rolle spielen und welche Faktoren beeinflussen, ob ein Problem hauptsächlich intern oder extern gelöst wird.

 

Relevante Publikationen: