Eure Forschungsgruppe vergleicht das Verhalten von Mäusen und Affen. Warum habt ihr euch für diese Tierarten entschieden?
Martha Havenith: Wir arbeiten mit Mäusen und Primaten, weil es sich dabei um die zwei Tierarten handelt, mit denen in den Systemischen Neurowissenschaften am häufigsten gearbeitet wird. Uns interessiert, wie eine Gruppe von Nervenzellen mehrere Aufgaben gleichzeitig erledigt. Und wie sich das in den Aktivitäten der einzelnen Nervenzellen widerspiegelt. Anders gesagt: Wir schauen uns kognitivie Prozesse an, also reale Denkprozesse wie Lernen, sich erinnern oder die Aufmerksamkeit auf etwas richten, und untersuchen diese nicht isoliert, so wie das viele Labore machen, sondern gleichzeitig, um zu verstehen, wie diese Prozesse interagieren und wie sie sich überlagern. Und zwar unter realen Bedingungen.
Beschreibt bitte einmal genauer, wie ihr das Verhalten der Tiere vergleicht.
Marieke Schölvinck: Dafür beobachten wir in einem natürlichen Kontext die visuell bedingten Entscheidungen und Reaktionen dieser Tiere. Egal, ob Affe oder Maus, die Herausforderungen, die sich ihnen in freier Wildbahn stellen, sind komplex – und für beide Tiere sehr ähnlich. Zum Beispiel: Wo ist das beste Versteck für mein Futter? Finde ich Futter am selben Ort wie gestern? Muss ich erneut auf die Suche gehen? Ihre Gehirne hingegen, insbesondere ihr visueller Kortex, sind ganz verschieden. Wie schaffen es diese beiden Arten, trotz unterschiedlicher Hardware ähnlich zu agieren, also beispielsweise die Mühen und Risiken, die es kostet eine Futterquelle zu erreichen, gegen deren Ergiebigkeit abzuwägen?
Und vor so eine Herausforderung stellt ihr Affen und Mäuse dann auch in euren Versuchen?
Martha Havenith: Genau. Wir schicken die Tiere auf Nahrungssuche durch eine Virtual Reality (VR)-Umgebung, die einer Wald- und Wiesenlandschaft nachempfunden ist. So können wir ihre visuell bedingten Entscheidungen, Abwägungen und Reaktionen in einem natürlichen Kontext genau beobachten. Die Mäuse laufen auf einer großen Kugel durch die VR-Welt, die Affen bewegen sich durch diese Welt, indem sie mit ihren Händen einen Trackball steuern. Die Aufgabe ist für beide Tierarten gleich: Auf dem Weg durch die virtuelle Landschaft werden ihnen immer wieder zwei Objekte präsentiert, zum Beispiel ein Stein und eine Nuss. Sie laufen zu einem der beiden Objekte und wenn sie das richtige ausgewählt haben, werden sie dafür belohnt – die Affen mit Saft, die Mäuse mit Sojamilch.
Worauf achtet ihr während sich die Tiere durch die virtuelle Welt bewegen?
Marieke Schölvinck: Während dieser einfachen Suchaufgabe verfolgen wir das Verhalten des Tieres sehr detailliert. Besonders achten wir dabei auf drei spezifische Parameter: 1. Die Wege, die die Tiere in der virtuellen Umgebung nehmen und wie zielgerichtet diese sind, 2. Augenbewegungen und Pupillengröße der Tiere, 3. das Gesicht und die Hände der Affen beziehungsweise Gesicht und Körper der Mäuse, aufgezeichnet auf Video. Wege und Augenbewegungen können wir leicht durch eine Zahl erfassen, die sich im Laufe der Zeit ändert – und zwar als eine Position in einem Koordinatensystem. Aber wir müssen auch die Videos auswerten. Dazu verwenden wir eine Toolbox namens DeepLabCut. Mit diesem speziellen Computerprogramm verfolgen wir zu jedem Zeitpunkt die Position bestimmter Körperteile, z. B. Handgelenke, Augenbrauen, Wangen oder Ohrenspitzen.
Welche Schlüsse könnt ihr daraus ziehen, wie die Tiere diese Suchaufgabe bewältigen?
Martha Havenith: Wir nutzen die Verhaltensparameter, die wir mit unseren Beobachtungen gewinnen, um verschiedene kognitive Zustände der Tiere zu unterscheiden. Wenn eine Maus beispielsweise sehr aufmerksam auf die Reize achtet, die sie sucht, entscheidet sie sich vielleicht schneller für ein Objekt, läuft geradliniger dorthin und beginnt früher, am Trinkröhrchen zu lecken, weil sie eine Belohnung erwartet. All diese Merkmale zusammengenommen könnten dann auf einen hoch aufmerksamen Zustand deuten. Vielleicht ist das Tier aber auch erst am Anfang eines Lernprozesses und verwechselt deshalb verschiedene Objekte trotz aufmerksamer Wahrnehmung. Auch das spiegelt sich in einer Vielzahl von anderen Verhaltensparametern wider. Es liegt also auf der Hand, dass wir diese kognitiven Zustände umso besser erfassen und erkennen können, je mehr Parameter wir haben, um das Tierverhalten zu beschreiben.
Wie geht es dann weiter?
Martha Havenith: Sobald alle Parameter feststehen, die das Verhalten im Zeitverlauf verfolgen, insgesamt sind es knapp 20, extrahieren wir mit einer Kombination mathematischer Modelle (einem sogenannten GLM-HMM-Modell) die zugrundeliegenden kognitiven Zustände, wie auch den oben erwähnten hochaufmerksamen Zustand. Das berechnen wir im Moment für Affen und Mäuse getrennt. Dadurch können wir die Tierarten vergleichen und zum Beispiel sehen, dass unterschiedliche Verhaltensweisen bei den beiden Arten auf denselben kognitiven Zuständen beruhen. Dies gibt uns einen ersten Anhaltspunkt dafür, wie sie ähnliche komplexe Herausforderungen wie die Nahrungssuche in einer vielfältigen sensorischen Umgebung lösen.
Klingt spannend! Ihr sprecht von „ersten Anhaltspunkten“ – was kommt als nächstes?
Marieke Schölvinck: Der nächste Schritt für unsere Forschungsgruppe besteht darin, während der Nahrungssuche in der virtuellen Umgebung die Gehirnaktivität großer Neuronengruppen in den visuellen Arealen des Gehirns zu messen. So erhalten wir Momentaufnahmen der vielfältigen Verhaltensweisen von Tieren, die wir dann mit Hilfe modernster Computertools in Beziehung setzen zu verschiedenen Aspekten der Gehirnaktivität. Unser Ziel dabei ist es, erstmals überhaupt zu klären, wie sich im Gehirn verschiedener Tierarten universelle Denkprozesse wie Erinnern, Lernen oder die Aufmerksamkeit auf etwas richten in Echtzeit entfalten. Und ob die Art und Weise wie verschiedene Tierarten diese Herausforderung der neuronalen Verarbeitung gelöst haben, artspezifisch ist oder von der Evolution speziesübergreifend immer gleich gelöst wurde.
Vielen Dank für das Interview!
Originalpublikationen
Shapcott KA, Weigand M, Glukhova I, Havenith MN, Schölvinck ML (2022). DomeVR: A setup for experimental control of an immersive dome virtual environment created with Unreal Engine 4. https://doi.org/10.1101/2022.04.04.486889 (preprint, accepted for publication)
Tlaie A, Shapcott KA, van der Plas T, Rowland J, Lees R, Keeling J, Packer A, Tiesinga P, Schölvinck ML, Havenith MN (2022). Does the brain care about averages? A simple test. https://doi.org/10.1101/2021.11.28.469673 (preprint)
van Heukelum S, Mars RB, Guthrie M, Buitelaar JK, Beckmann CF, Tiesinga PHE, Vogt BA, Glennon JC, Havenith MN (2020). Where is cingulate cortex? A cross-species view. Trends Neurosci 43(5), 285-299. https://doi.org/10.1016/j.tins.2020.03.007