Künstliche neuronale Netze decodieren die Gehirnaktivität während durchgeführter und vorgestellter Bewegungen

Künstliche neuronale Netze decodieren die Gehirnaktivität während durchgeführter und vorgestellter Bewegungen

Künstliche Intelligenz – was bleibt für uns? mit Jonas Lüscher, Pascal Kaufmann, Arijana Walcott (Kann 2019).

Anonim

Künstliche Intelligenz hat bei bestimmten Aufgaben die menschliche Intelligenz weit hinter sich gelassen. Mehrere Gruppen des Freiburger Exzellenzclusters BrainLinks-BrainTools um den Neurowissenschaftler Privatdozent Dr. Tonio Ball zeigen, wie Ideen aus der Informatik die Hirnforschung revolutionieren können. In der wissenschaftlichen Zeitschrift Human Brain Mapping illustrieren sie, wie ein selbstlernender Algorithmus menschliche Gehirnsignale entschlüsselt, die mit einem Elektroenzephalogramm (EEG) gemessen wurden. Es beinhaltete ausgeführte Bewegungen, aber auch Hand- und Fußbewegungen, die nur Gedanken oder eine imaginäre Rotation von Objekten waren. Obwohl der Algorithmus keine Eigenschaften im Voraus erhalten hat, arbeitet er so schnell und genau wie traditionelle Systeme, die zur Lösung bestimmter Aufgaben auf der Grundlage vorbestimmter Gehirnsignaleigenschaften erstellt wurden, die daher nicht für jede Situation geeignet sind. Die Nachfrage nach so unterschiedlichen Schnittpunkten zwischen Mensch und Maschine ist groß: So könnte sie beispielsweise am Universitätsklinikum Freiburg zur Früherkennung epileptischer Anfälle eingesetzt werden. Es könnte auch verwendet werden, um die Kommunikationsmöglichkeiten für schwer gelähmte Patienten oder eine automatische neurologische Diagnose zu verbessern.

"Unsere Software basiert auf Gehirn-inspirierten Modellen, die sich als äußerst hilfreich bei der Decodierung verschiedener natürlicher Signale wie phonetischer Laute erwiesen haben", sagt der Informatiker Robin Tibor Schirrmeister. Der Forscher schreibt damit Methoden, mit denen das Team EEG-Daten entschlüsselt hat: Sogenannte künstliche neuronale Netze sind das Herzstück des aktuellen Projekts bei BrainLinks-BrainTools. "Das Schöne am Programm ist, dass wir keine Eigenschaften vorbestimmen müssen. Die Informationen werden Schicht für Schicht, also in mehreren Schritten mit Hilfe einer nichtlinearen Funktion verarbeitet. Das System lernt, bestimmte Verhaltensmuster zu erkennen und zu unterscheiden von verschiedenen Bewegungen im Laufe der Zeit ", erklärt Schirrmeister. Das Modell basiert auf den Verbindungen zwischen Nervenzellen im menschlichen Körper, in denen elektrische Signale von Synapsen von zellulären Protuberanzen zum Zellkern und wieder zurück geleitet werden. "Theorien sind seit Jahrzehnten in Umlauf, aber erst mit dem Aufkommen der heutigen Computer-Rechenleistung ist das Modell machbar", sagt Schirrmeister.

Üblicherweise verbessert sich die Genauigkeit des Modells mit einer großen Anzahl von Verarbeitungsschichten. Bis zu 31 wurden während der Studie verwendet, auch bekannt als "Deep Learning". Bislang war es problematisch, die Schaltkreise des Netzwerks nach Abschluss des Lernprozesses zu interpretieren. Alle algorithmischen Prozesse finden im Hintergrund statt und sind unsichtbar. Aus diesem Grund haben die Forscher die Software entwickelt, um Karten zu erstellen, mit denen sie die Entschlüsselungsentscheidungen verstehen können. Die Forscher können jederzeit neue Datensätze in das System einfügen. "Im Gegensatz zur alten Methode können wir jetzt direkt zu den rohen Signalen übergehen, die das EEG vom Gehirn aufnimmt. Unser System ist genauso präzise, ​​wenn nicht sogar besser als das alte", fasst Studienleiter Tonio Ball die Studie zusammen Forschungsbeitrag. Das Potenzial der Technologie ist noch nicht ausgeschöpft. Gemeinsam mit seinem Team möchte der Forscher seine Entwicklung weiter vorantreiben: "Unsere Zukunftsvision umfasst selbstlernende Algorithmen, die auf Basis ihrer Gehirnsignale die verschiedenen Absichten des Nutzers zuverlässig und schnell erkennen Außerdem könnten solche Algorithmen neurologische Diagnosen unterstützen. "