Ein Objekt greifen - Modell entschlüsselt komplette Bewegungsplanung im Gehirn
Tagtäglich machen wir mühelos unzählige Greifbewegungen. Wir nehmen einen Schlüssel in die Hand, öffnen die Haustür durch Betätigung des Türgriffs, ziehen sie anschließend von außen zu und schließen mit dem Schlüssel ab. Was für uns selbstverständlich ist, basiert auf einem komplexen Zusammenspiel unserer Augen, verschiedener Hirnregionen und letztlich unsere Muskeln in Arm und Hand. Neurowissenschaftlern des Deutschen Primatenzentrums (DPZ) – Leibniz-Institut für Primatenforschung in Göttingen ist es erstmals gelungen, ein Modell zu entwickeln, das die gesamte Bewegungsplanung vom Sehen eines Objektes bis hin zum Greifen dieses Gegenstandes lückenlos abbilden kann. Umfassende neuronale und motorische Daten aus Greif-Experimenten mit zwei Rhesusaffen lieferten hierbei entscheidende Ergebnisse für die Entwicklung des Modells, bei dem es sich um ein künstliches neuronales Netzwerk handelt, das durch das Einspeisen von Bildern, die bestimmte Objekte zeigen, in der Lage ist, Abläufe und Zusammenhänge bei der Verarbeitung dieser Informationen im Gehirn zu simulieren. Die neuronalen Daten aus dem künstlichen Netzwerkmodell konnten die komplexen biologischen Daten aus den Tierexperimenten erklären und belegen somit die Validität des funktionellen Modells. Dieses könnte langfristig zur Entwicklung besserer Neuroprothesen beitragen, um zum Beispiel bei einer Querschnittslähmung die beschädigte Nervenverbindung zwischen Gehirn und Extremitäten zu überbrücken und so die Weitergabe der Bewegungsbefehle vom Hirn zu Armen und Beinen wieder herzustellen (PNAS).
Rhesusaffen verfügen wie wir Menschen über ein hochentwickeltes Nerven- und Sehsystem sowie eine ausgeprägte Feinmotorik. Aus diesem Grund eignen sie sich besonders gut für die Erforschung von Greifbewegungen. Aus früheren Studien ist bekannt, dass bei Rhesusaffen das Zusammenspiel dreier Hirnareale für das Greifen eines anvisierten Objektes verantwortlich ist. Bisher gab es jedoch kein detailliertes Modell, dass den gesamten Prozess von der Verarbeitung der visuellen Informationen bis hin zur Muskelsteuerung von Arm und Hand zum Greifen des Objektes lückenlos auf neuronaler Ebene abbilden konnte.
Für die Entwicklung eines solchen Modells, wurden zwei männliche Rhesusaffen darauf trainiert, 42 Gegenstände von unterschiedlicher Form und Größe zu greifen, die ihnen in beliebiger Reihenfolge präsentiert wurden. Dabei trugen die Affen einen Datenhandschuh, der die Bewegungen von Arm, Hand und Fingern kontinuierlich erfasste. Zunächst wurde das zu greifende Objekt kurz angeleuchtet, während die Affen einen roten Punkt unter dem jeweiligen Objekt betrachteten und die Greifbewegung mit kurzer Verzögerung nach dem Aufblitzen eines Startsignals ausführten. Diese Bedingungen gaben Aufschluss darüber, zu welchem Zeitpunkt die verschiedenen Hirnareale aktiv sind, um ausgehend von den visuellen Signalen die Greifbewegung und die damit verbundenen Muskelaktivierungen zu erzeugen.
Im nächsten Schritt wurden Bilder der 42 Objekte, aufgenommen aus der Perspektive der Affen, in ein künstliches neuronales Netzwerk im Computer eingespeist, dessen Funktionsweise den biologischen Vorgängen im Gehirn nachempfunden war. Das Netzwerkmodell bestand aus drei miteinander verbundenen Stufen, entsprechend der drei kortikalen Hirnareale der Affen, und erlaubte damit aussagekräftige Einblicke in die Dynamik der Gehirnnetzwerke. Nach entsprechendem Training mit den Verhaltensdaten der Affen war das Netzwerk in der Lage, die Greifbewegungen der Rhesusaffen präzise widerzuspiegeln. So konnte es Bilder mit darauf erkennbaren Objekten verarbeiten und daraus die zum Greifen der Objekte notwendige Muskeldynamik beim Affen sehr genau reproduzieren.
Die Ergebnisse, die mit Hilfe des künstlichen Netzwerkmodells erzielt wurden, wurden anschließend mit den biologischen Daten aus dem Affen-Experiment verglichen. Es zeigte sich, dass die neuronale Dynamik des Modells mit der neuronalen Dynamik der kortikalen Hirnareale der Affen hochgradig übereinstimmte. „Dieses künstliche Modell beschreibt erstmals in biologisch realistischer Weise den neuronalen Verarbeitungsprozess vom Sehen eines Objektes zur Objekterkennung über die Handlungsplanung bis hin zur Handmuskelsteuerung beim Greifen“, sagt Hansjörg Scherberger, Leiter der Abteilung Neurobiologie am DPZ, und ergänzt: „Dieses Modell trägt dazu bei, die im Gehirn ablaufenden Prozesse besser zu verstehen, und könnte langfristig zur Entwicklung leistungsfähigerer Neuroprothesen genutzt werden.“
Originalveröffentlichung
Michaels JA, Schaffelhofer S, Agudelo-Toro A, Scherberger H (2020): A goal-driven modular neural network predicts parietofrontal neural dynamics during grasping. PNAS. DOI: doi.org/10.1073/pnas.2005087117