Skip to main content Skip to page footer

Echtzeit-Dekodierung von Handbewegungen

Dekodierung und sensorische Rückmeldung

Roboterhand

Basierend auf unserem aktuellen Wissen darüber, wie Handbewegungen im Gehirn erzeugt werden, entwickeln wir Gehirn-Maschine-Schnittstellen, die solche Bewegungsabsichten auslesen können, um Robotergeräte in Echtzeit zu steuern. Unsere Hauptforschungsfrage lautet: „Welche neuronalen Kodierungs- und Plastizitätsprinzipien bestimmen die Ausführung komplexer Bewegungen, wie sie beispielsweise für die detaillierte Objektmanipulation erforderlich sind?“. Um dies zu erforschen, verwenden wir dauerhaft implantierte Elektrodenarrays, welche neuronale Signale gleichzeitig aus über 200 Kanälen auslesen können. Mithilfe spezieller Analysesoftware werden diese Signale dann in Echtzeit dekodiert, um Vorhersagen über bevorstehende Greifaktionen zu treffen, die dann zur Steuerung von Roboterarmen und -händen verwendet werden können. Solche Erkenntnisse sind für zukünftige Anwendungen nützlich, die darauf abzielen, die Handfunktion bei gelähmten Patienten wiederherzustellen.

Um die Hauptforschungsfrage zu beantworten: „Welche neuronalen Kodierungs- und Plastizitätsprinzipien bestimmen die Ausführung komplexer Objektmanipulationen?“, verfolgen wir folgenden Teilprojekte und haben folgenden Techniken entwickelt:

 

Dekodierung von Handbewegungen für Gehirn-Computer-Schnittstellen

Wie erzeugt das Gehirn Bewegung? Wie harmonisieren Milliarden von Gehirnzellen die Aktivität von Hunderten von Muskeln, um die für unser tägliches Leben grundlegenden Bewegungen wie das Greifen zu erzeugen? Diese Frage fasziniert Wissenschaftler und Ingenieure seit Jahrtausenden, aber darüber hinaus ist sie für den medizinischen Fortschritt von entscheidender Bedeutung: In Fällen wie Lähmungen und Extremfällen wie dem Locked-in-Syndrom würde ein besseres Verständnis darüber, wie das Gehirn Bewegungen erzeugt, den Ingenieuren die Entwicklung ermöglichen Geräte, die einen Teil der Mobilität wiederherstellen und die soziale Verbindung eines Patienten wiederherstellen können. Unser Ziel ist es zu verstehen, wie das Gehirn die notwendigen Signale zur Steuerung von Armbewegungen erzeugt. Insbesondere gehen wir der entscheidenden Frage nach: Wie können mehrere parallele Signale, wie sie beispielsweise für Armbewegungen benötigt werden, von der Großhirnrinde entschlüsselt werden, um ein künstliches Gerät zu steuern? Zu diesem Zweck führen wir Experimente an Primaten durch, während diese über eine Gehirn-Computer-Schnittstelle reale und virtuelle Greifvorgänge ausführen, um die Aktivitätsmuster neuronaler Populationen zu verstehen, die die zum Greifen erforderlichen sequentiellen Aktionen koordinieren.

Handrobotik

Neuronale Schnittstellen zum Greifen benötigen Roboter, um die entschlüsselten Handaktionen auszuführen. Während in der Anfangsphase Lösungen für virtuelle Umgebungen möglich sind, bieten Roboterhände ein weitaus besseres Feedback und eine weitaus bessere Interaktion mit der realen Welt. Die Roboterhandsteuerung integriert Befehlssignale von der neuronalen Schnittstelle und sensorische Informationen vom Roboter, um Greifaktionen zu generieren. Darüber hinaus können propriozeptive (sensorische) Informationen über eine zusätzliche sensorische Schnittstelle an das Gehirn gesendet werden, um unabhängig vom Sehvermögen Roboter-Feedback zu geben. Solche bidirektionalen neuronalen Schnittstellen könnten daher zu erheblich verbesserten neuroprothetischen Systemen führen.

Untersuchung des neuronalen Greif-Netzwerks von Primaten mit Optogenetik

Für die Entwicklung neuroprothetischer Geräte ist es wichtig, nicht nur korrelative Schlussfolgerungen, sondern auch kausale Zusammenhänge zwischen spezifischen Komponenten des Handgreifnetzwerks zu ziehen, die an der Planung und Ausführung von Handgreifbewegungen beteiligt sind. Dementsprechend wenden wir derzeit den neuen Ansatz der Optogenetik auf das Greifnetzwerk sich verhaltender Affen an. Neuro-optogenetische Werkzeuge wurden kürzlich bei Primaten etabliert und ermöglichen die präzise Manipulation neuronaler Aktivität mit hoher zeitlicher, räumlicher und zelltypischer Spezifität. 

Wir kombinieren Verhaltens- und neuronale Aufzeichnungsmethoden sowie Optogenetik und intrakortikale elektrophysiologische Aufzeichnungen und handkinematisches Tracking bei Makakenaffen, während sie Greifaufgaben ausführen. Dabei untersuchen wir die Auswirkungen der optogenetischen Stimulation auf die lokale und entfernte, aber direkt damit verbundene neuronale Aktivität sowie auf das Handgreifverhalten. Ergebnisse dieser Studien könnten zur Entwicklung verbesserter Neuroprothesen für motorisch eingeschränkte Patienten und zur Übertragung optogenetischer Methoden in klinischen Studien am Menschen beitragen. Dieses Projekt wird im Rahmen des Else Kröner Fresenius-Zentrums für optogenetische Therapien gefördert: https://www.ekfs.de/en/scientific-funding/center/else-kroener-fresenius-center-for-optogenetic-therapies

Entwicklung einer Kommunikationsplattform im Körper zur Steuerung von Prothesen

Das Verbundprojekt B-CRATOS („Wireless Brain-Connect inteRfAce TO machineS“) zielt darauf ab, Prothesen oder „intelligente“ Geräte durch Gedankenkraft zu steuern. Zu diesem Zweck soll eine batterie- und drahtlose Hochgeschwindigkeitskommunikationsplattform in den Körper integriert werden, um das Nervensystem mit Signalsystemen zu verbinden und so verschiedene Funktionen beispielsweise von Prothesen anzuregen. An dem von der schwedischen Universität Uppsala koordinierten Projekt ist das Deutsche Primatenzentrum beteiligt, um die neue Technologie an nichtmenschlichen Primaten zu testen. Das äußerst ambitionierte Projekt, das Fachwissen und Spitzentechnologien aus den Bereichen neuartige drahtlose Kommunikation, Neurowissenschaften, Bionik, künstliche Intelligenz (KI) und Sensorik vereint, wurde von der EU mit 4,5 Millionen Euro gefördert. Weitere Informationen: www.b-cratos.eu