Neuronale Informationsverarbeitung

Wahrnehmung und Entscheidungsfindung in ungewissen Umgebungen

In diesem Projekt untersuchen wir, zusammen mit unseren experimentellen und klinischen Kooperationspartnern, wie sich menschliche Probanden in komplexen Entscheidungsaufgaben verhalten. Mit verschiedenen experimentellen Paradigmen und Probandengruppen untersuchen wir den Einfluss den faktische und fiktiven Vorhersagefehler, Bedauern, schwankende Erträge, Risiko und zeitliche Abwertung auf den Entscheidungsprozess haben. Wir entwerfen auf Markov-Entscheidungsprozessen und Verstärkungslernen basierende neuroinformatische Modelle und verwenden diese Modelle um Hypothesen über die impliziten Ziele eines Probanden und über die Entscheidungsprozessen und Lernen zugrunde liegenden Mechanismen zu quantifizieren. Mithilfe von Modellen versuchen wir das Verhalten zu quantifizieren und zu verstehen, wie Menschen unter diesen Aufgabestellungen lernen, insbesondere wenn sich Kontingenzen und Anforderungen ändern. Verhaltensstudiesen werden mit funktioneller Bildgebung und Genetik kombiniert, was uns erlaubt Modellgrößen direkt mit neuronaler Aktivität, individuellen Variationen in Neurotransmittersystemen und genetischen Dispositionen der Probanden zu korrelieren.
Wir interessieren uns außerdem für "kognitiven" Größen, die mit der Warhnehmung interagieren, d.h. wie Größen wie Stimuluserwartungen und durchschnittliche Belohnungen implizit während aufeinanderfolgender Wahrnehmungsaufgaben geschätzt werden und wie diese Größen visuelle Verarbeitung modulieren. Verstärkungs- und belohnungsbasiertes Lernen wird auch im Kontext des Maschinellen Lernens untersucht. Weitere Details dazu unter der „Forschung“sseite „Approximatives Verstärkungslernen“ 

Danksagung: Dieses Projekt wird vom BMBF (über Mittel aus dem Bernstein Center und dem Bernstein Focus) und der Technischen Universität Berlin finanziert.

 

 

References

Houillon, A., Lorenz, R. C., Boehmer, W., Rapp, M. A., Heinz, A., Gallinat, J. and Obermayer, K. (2013). The effect of novelty on reinforcement learning.  Progress in brain research, 202, 415–439.

Shen, Y., Stannat, W. and Obermayer, K. (2013). Risk-sensitive Markov Control Processes.  SIAM Journal on Control and Optimization, 51, 3652–3672.