In sozialen Mensch-Mensch Interaktionen werden Handlungen in der Regel basierend auf internen Zuständen (z.B., Emotionen, Intentionen oder Motivationen) interpretiert und vorhergesagt. Dabei schreibt man dem/der Interaktionspartner*in zunächst die generelle Fähigkeit zu, interne Zustände zu besitzen (dieser Prozess heißt mind perception) und trifft dann entsprechende Schlussfolgerungen (dieser Prozess heißt mentalizing). „Mind“ kann aber nicht nur Menschen zugeschrieben werden, sondern auch Entitäten, die per se keine internen Zustände haben (z.B., technische Systeme wie Roboter, Maschinen oder KI) oder deren Mind-Status unklar ist (z.B., Tiere). Forschungsarbeiten haben gezeigt, dass der Grad zu dem Mind Perception in der Mensch-Technik Interaktion stattfindet, einen großen Einfluss darauf hat, wie wir mit technischen Systemen interagieren (z.B., Vertrauen, Prozialität, Moral) und wie wir ihr Verhalten interpretieren (z.B., Intentionalität) oder darauf reagieren (z.B., Koordination von Handlungen). An der TUB verwenden wir verhaltens- und neurophysiologische Messungen (z.B., Reaktionszeiten, Eye- und Mouse-tracking, EEG), um zu untersuchen, unter welchen Bedingungen nicht-menschlichen Agenten mentale Zustände zugeschrieben werden und welche Auswirkungen dies auf kognitive (z.B., Leistung, Arbeitsaufteilung), emotionale (z.B., Vertrauen) und motivationale (z.B., Akzeptanz) Parameter in sozialen Interaktionen mit technischen Systemen hat.
Relevante Publikationen:
Erfüllende zwischenmenschliche Beziehungen entstehen oft nicht sofort, sondern entwickeln sich im Laufe der Zeit: durch wiederholte und zum Teil auch vorhersagbare Interaktionen werden Fremde zu Freunden. Geht man von einem solchen Entwicklungsprozess aus, ist es nicht verwunderlich, dass sich nahezu alle sozioemotionalen und kognitiven Prozesse, die für den Aufbau von Beziehungen relevant sind (z.B., Vertrauen, Kooperation oder Handlungsvorhersage) im Laufe der Zeit verändern. Obwohl man eine ähnliche Veränderung sozial-kognitiver Parameter über die Zeit auch in der Mensch-Technik-Interaktionen erwarten würde, gibt es überraschenderweise nur wenige empirische Studien, die sich mit der Dynamik sozialer Kognition in langfristigen Mensch-Technik Interaktionen beschäftigen. Um diese Forschungslücke zu schließen, verwenden wir an der TUB handelsübliche soziale Roboter (sogenannte off-the-shelf companion robots) wie Cozmo oder Emo um anhand von verhaltens- und neurophysiologischen Messungen in Alltagsumgebungen (z.B., Arbeitsplatz, zu Hause) zu untersuchen, wie sich Interaktionen zwischen Mensch und Technik im Laufe der Zeit verändern und wie sich dies auf kognitive, emotionale und motivationale Parameter auswirkt.
Relevante Publikationen:
Die Uncanny Valley (UV) Hypothese besagt, dass künstliche soziale Agenten ein tiefes Gefühl von Unbehagen auslösen können, wenn sie morphologisch so gestaltet sind, dass sie zwar sehr menschenähnlich aussehen, aber eben nicht vollständig das menschliche Aussehen nachbilden (z.B. sogenannte Geminoid Roboter). Obwohl die UV-Hypothese inzwischen sowohl in den Medien als auch in der Wissenschaft weitestgehend anerkannt ist, sind sowohl empirische Untersuchungen als auch theoretische Erklärungsmodelle zu dem Thema immer noch ziemlich uneinheitlich. Eine mögliche Erklärung geht davon aus, dass das menschliche Gehirn beim Anblick eines sozialen Agenten automatisch versucht, diesen anhand seiner Morphologie (also z.B., seines Gesichts, Körpers und / oder Stimme) als menschlich oder nicht-menschlich zu kategorisieren und dass diese Kategorisierung bei Agenten, die in der Uncanny Valley angesiedelt sind mit einem kognitiven Konflikt verbunden ist, dessen Auflösung kognitive Ressourcen benötigt (man spricht hier von categorical uncertainty). An der TUB erheben wir Verhaltens- und neurophysiologische Parameter (z.B., Mouse-tracking und EEG) um zu untersuchen, (i) ob kognitiver Konflikt und damit verbundene erhöhte Arbeitsgedächtnisbelastung tatsächlich eine mögliche Erklärung für die UV sind und falls dem so sein sollte, (ii) wie stark sich diese zusätzliche kognitive Belastung auf die Performanz bei der Aufgabenausführung mit stark anthropomorphen Agenten auswirkt.
Relevante Publikationen:
Roboter werden zunehmend als Partner in Alltagssituationen betrachtet (z.B., Service- oder Companion Roboter) und Interaktionen mit ihnen sind oft nicht nur dyadisch, sondern finden häufig auch in Teamkonstellationen statt. Wenn Roboter (und soziale KI) in den Alltag integriert werden sollen, besteht eine große Herausforderung darin, diese Agenten so zu konzipieren, dass sie die Bedürfnisse, Gefühle, Intentionen und Performanz aller Mitglieder eines Teams wahrnehmen und vorhersagen können und ihr eigenes Verhalten dementsprechend anpassen. Eine besondere Herausforderung ist hierbei, dass einzelne Teammitglieder bisweilen sehr unterschiedliche kognitive Fähigkeiten, emotionale Zustände und motivationale Beweggründe aufweisen können, weswegen das Verhalten aller Teammitglieder so kalibriert sein muss, dass eine harmonische und zielführende Zusammenarbeit möglich ist. Für die Vorhersage menschlichen Verhaltens besitzen wir grundsätzlich gute mentale Modelle, was für das Verhalten technischer Agenten nicht unbedingt der Fall ist. Auch ist nicht geklärt, wie Prozesse in gemischten Mensch-Maschine Teams koordiniert werden, welche Agenten- und Verhaltensparameter Kooperation, effiziente Aufgabenaufteilung und gegenseitiges Vertrauen fördern und unter welchen Bedingungen Menschen bereit sind, Ratschläge von maschinellen Agenten anzunehmen oder Aufgaben an sie abzugeben. An der TUB versuchen wir mit Hilfe von behavioralen und neurophysiologischen Maßen genau diese sozial-kognitiven Aspekte in Mensch-Roboter-Teams zu untersuchen und zu erforschen, wie verschiedene Teamzusammensetzungen sowie spezifische Merkmale der Agenten, der Interaktion und der Situation die gemeinsame Teamleistung beeinflussen.
Relevante Publikationen:
Die Interaktion mit künstlicher Intelligenz und Bots kann besonders dann ein Problem sein, wenn sie keine direkt wahrnehmbare Repräsentation in der physikalischen Welt haben (d.h., nicht sichtbar oder nicht „embodied“ sind), wenn wir nur das Ergebnis ihrer Handlungen sehen aber nicht, wie sie dieses Ergebnis generiert haben (z.B., Bots, die gefälschte Likes oder Nachrichten auf Social-Media-Plattformen produzieren) oder wenn Informationen über ihre Wirkweise aus komplexen Verhaltensweisen in Situationen mit hohem Workload abgeleitet werden müssen (z.B., Entscheidungen im Kontext des autonomen Fahrens oder in der Medizin). An der TUB erforschen wir, ob Menschen Entscheidungen in komplexen Umgebungen, die von anderen Menschen generiert wurden von solchen unterschieden können, die von künstlich-intelligenten Systemen generiert wurden und wie Menschenähnlichkeit im Verhalten oder Aussehen von KI beeinflusst, ob wir kooperieren, uns unfair verhalten und / oder prosoziales Verhalten zeigen. Für die Untersuchung dieser Fragestellung verwenden wir an der TUB eine videospiel-basierte Variante des klassischen Turing-Tests, die es erlaubt sowohl das Aussehen als auch die Verhaltensweisen eines virtuellen Charakters flexibel zu verändern und die tatsächliche Identität des Spielers (Mensch oder KI) dahinter zu verbergen.
Relevante Publikationen:
Cognitive Offloading Theorien besagen, dass Kognition sowohl intern (d.h. im Gehirn) als auch extern (d.h. im Körper und/oder in der technischen Umgebung) stattfinden kann. So entsteht ein geteilter Repräsentationsraum innerhalb dessen die Problemlösung stattfindet: bestimmte Aspekte der Problemlösung werden internal erledigt, andere external durch Interaktion mit der physikalischen Umgebung. Offloading kann bei komplexen Problemen von Vorteil sein, weil es zur Entlastung von Arbeits- und Langzeitgedächtnis beitragen und somit Ressourcen für kreatives und schlussfolgerndes Denken freimachen kann. Das Externalisieren eines internen Prozesses (z.B. das Zeichnen einer Idee), kann außerdem stimulierend wirken und dadurch zu einem besseren Ergebnis führen. Das Einbeziehen von externen Ressourcen kann aber natürlich auch negativ sein, z.B. wenn es von der eigentlichen Aufgabe ablenkt oder wenn die externen Tools so gestaltet sind, dass mehr Zeit mit ihnen verbracht wird als für die Aufgabe nötig wäre (siehe auch attention economy bzw. persuasive technology). Obwohl cognitive offloading für ein breites Spektrum von Mensch-Maschine-Interaktionen relevant ist, sind die Prozesse, durch die Menschen ihre technische Umgebung in die Problemlösung einbeziehen, nur unzureichend verstanden. Wir untersuchen an der TUB welche kognitiven Prozesse bevorzugt auf technische Systeme verlagert werden, welche metakognitiven Prozesse beim Cognitive Offloading eine Rolle spielen und welche Faktoren beeinflussen, ob ein Problem hauptsächlich intern oder extern gelöst wird.
Relevante Publikationen: