Neue Studien zeigen, dass Gehirnimplantate Menschen mit Lähmungen dabei helfen können, schneller und genauer als zuvor über Bildschirme zu „sprechen“.



CNN

Dr. Jaimie Henderson hatte während seiner gesamten Kindheit einen einzigen Wunsch: dass sein Vater mit ihm sprechen konnte. Als Wissenschaftler und Neurochirurg an der Stanford Medicine entwickeln Henderson und seine Kollegen heute Gehirnimplantate, die möglicherweise ähnliche Wünsche für andere Menschen mit Lähmungen oder Sprachbehinderungen erfüllen können.

Zwei am Mittwoch in der Fachzeitschrift „Nature“ veröffentlichte Studien zeigen, wie die als Neuroprothesen bezeichneten Gehirnimplantate die neuronale Aktivität einer Person aufzeichnen können, wenn sie versucht, auf natürliche Weise zu sprechen, und dass die Gehirnaktivität dann auf einem Computerbildschirm, durch Audiosprache oder in Wörter dekodiert werden kann sogar über einen animierten Avatar kommuniziert.

„Als ich 5 Jahre alt war, war mein Vater in einen verheerenden Autounfall verwickelt, bei dem er sich kaum bewegen oder sprechen konnte. Ich erinnere mich, dass ich über die Witze gelacht habe, die er zu erzählen versuchte, aber seine Sprachfähigkeit war so beeinträchtigt, dass wir die Pointe nicht verstehen konnten“, sagte Henderson, Autor einer der Studien und Professor an der Stanford University, in einer Pressekonferenz über seinen Witz Forschung.

„Also bin ich mit dem Wunsch aufgewachsen, ihn kennenzulernen und mit ihm zu kommunizieren“, sagte er. „Und ich denke, dass diese frühen Erfahrungen mein persönliches Interesse geweckt haben, zu verstehen, wie das Gehirn Bewegung und Sprache erzeugt.“

Henderson und seine Kollegen in Stanford und anderen US-Institutionen untersuchten den Einsatz implantierter Gehirnsensoren beim 68-jährigen Pat Bennett. Im Jahr 2012 wurde bei ihr Amyotrophe Lateralsklerose diagnostiziert, die ihre Sprache beeinträchtigte.

Die Forscher schrieben in ihrer Studie, dass Bennett einige begrenzte Gesichtsbewegungen ausführen und Geräusche aussprechen kann, aber aufgrund von ALS, einer seltenen neurologischen Erkrankung, die Nervenzellen im Gehirn und Rückenmark betrifft, nicht in der Lage ist, eine klare Sprache zu sprechen.

Im März 2022 führte Henderson die Operation durch, bei der Elektrodenanordnungen in zwei Bereichen von Bennetts Gehirn implantiert wurden. Die Implantate zeichneten die neuronale Aktivität auf, als Bennett versuchte, Gesichtsbewegungen auszuführen, Geräusche zu machen oder einzelne Wörter zu sprechen.

Die Arrays waren an Drähten befestigt, die aus dem Schädel kamen und mit einem Computer verbunden waren. Eine Software entschlüsselte die neuronale Aktivität und wandelte sie in Wörter um, die in Echtzeit auf dem Computerbildschirm angezeigt wurden. Als Bennett zu Ende gesprochen hatte, drückte sie einen Knopf, um die Entschlüsselung abzuschließen.

Die Forscher untersuchten diese Gehirn-Computer-Schnittstelle, indem Bennett versuchte, mit Lautäußerungen zu sprechen und nur Wörter ohne Lautäußerungen zu „munden“.

Bei einem Vokabular mit 50 Wörtern betrug die Fehlerquote bei der Dekodierung 9,1 % an den Tagen, an denen Bennett sprach, und 11,2 % an den stillen Tagen, stellten die Forscher fest. Bei Verwendung eines Vokabulars mit 125.000 Wörtern betrug die Wortfehlerrate an allen Vokalisierungstagen 23,8 % und an stillen Tagen 24,7 %.

„In unserer Arbeit zeigen wir, dass wir Sprachversuche mit einer Wortfehlerrate von 23 % entschlüsseln können, wenn wir eine große Menge von 125.000 möglichen Wörtern verwenden. Das bedeutet, dass etwa drei von vier Wörtern richtig entziffert werden“, sagte Frank Willett, Autor der Studie und wissenschaftlicher Mitarbeiter des Howard Hughes Medical Institute, der dem Neural Prosthetics Translational Lab angegliedert ist, in der Pressekonferenz.

„Dank dieser neuen Studien ist es nun möglich, sich eine Zukunft vorzustellen, in der wir jemandem mit einer Lähmung wieder flüssige Konversation ermöglichen und es ihm ermöglichen, frei zu sagen, was er sagen möchte, und zwar mit einer Genauigkeit, die hoch genug ist, um zuverlässig verstanden zu werden“, sagte er.

Die Forscher sagen, dass die Dekodierung mit hoher Geschwindigkeit erfolgte. Bennett sprach mit einer durchschnittlichen Geschwindigkeit von 62 Wörtern pro Minute, was „mehr als das Dreifache“ der Geschwindigkeit früherer Gehirn-Computer-Schnittstellen ist, die bei Handschriftmodellen etwa 18 Wörter pro Minute hatten.

„Diese ersten Ergebnisse haben das Konzept bestätigt, und irgendwann wird die Technologie aufholen, um es Menschen, die nicht sprechen können, leicht zugänglich zu machen“, schrieb Bennett in einer Pressemitteilung. „Für diejenigen, die nonverbal sind, bedeutet das, dass sie mit der größeren Welt verbunden bleiben, vielleicht weiter arbeiten und Freunde und Familienbeziehungen pflegen können.“

Vorerst schrieben die Forscher jedoch, dass ihre Ergebnisse ein „Beweis des Konzepts“ dafür seien, dass die Entschlüsselung von Sprechbewegungen mit einem großen Wortschatz möglich sei, diese jedoch an mehr Menschen getestet werden müsse, bevor sie für den klinischen Einsatz in Betracht gezogen werden könne.

„Das sind sehr frühe Studien“, sagte Willett. „Und wir haben keine große Datenbank mit Daten anderer Leute.“

Die andere am Mittwoch veröffentlichte Studie betraf Ann Johnson, die aufgrund einer Lähmung nach einem Schlaganfall im Jahr 2005, als sie 30 Jahre alt war, nicht klar sprechen konnte. Im September 2022 wurde ihr im UCSF Medical Center in San Francisco ein Elektrodengerät in ihr Gehirn implantiert, ohne dass es zu chirurgischen Komplikationen kam.

Das Implantat zeichnete die neuronale Aktivität auf, die auf einem Bildschirm in Text umgewandelt wurde. Die Forscher schrieben in der Studie, dass sie eine „genaue und schnelle Dekodierung großer Vokabeln“ mit einer durchschnittlichen Rate von 78 Wörtern pro Minute und einer durchschnittlichen Wortfehlerrate von 25 % fanden.

Als Johnson außerdem versuchte, lautlos zu sprechen, wurde ihre neuronale Aktivität in Sprachlaute synthetisiert. Die Forscher entwickelten außerdem eine Animation eines Gesichtsavatars zur Begleitung der synthetisierten Sprache, basierend auf den versuchten Gesichtsbewegungen des Patienten.

„Schnellere, genauere und natürlichere Kommunikation gehört zu den am meisten gewünschten Bedürfnissen von Menschen, die nach schwerer Lähmung die Fähigkeit zum Sprechen verloren haben“, so die Forscher von der University of California in San Francisco und anderen Institutionen in den USA und den Vereinigten Staaten Königreich, schrieben sie in ihrem Arbeitszimmer. „Hier haben wir gezeigt, dass alle diese Bedürfnisse mit einem sprachneuroprothetischen System erfüllt werden können, das die artikulatorische kortikale Aktivität in Echtzeit in mehrere Ausgabemodalitäten entschlüsselt.“

Die beiden neuen Gehirnimplantatstudien „überschneiden“ sich in ihren Ergebnissen und ihrem „langfristigen Ziel“, die Kommunikation für Menschen mit Lähmungen wiederherzustellen, sagte Dr. Edward Chang, ein Neurochirurg und Autor der Studie von der UC San Francisco, in den Nachrichten Einweisung.

„Die Ergebnisse beider Studien – zwischen 60 und 70 Wörter pro Minute in beiden – sind ein echter Meilenstein für unser Fachgebiet im Allgemeinen, und wir sind wirklich begeistert davon, weil sie von zwei verschiedenen Patienten, zwei verschiedenen Zentren stammen. zwei verschiedene Ansätze“, sagte Chang. „Und die wichtigste Botschaft ist, dass es Hoffnung gibt, dass sich die Situation in den kommenden Jahren weiter verbessert und eine Lösung bietet.“

Obwohl die in beiden neuen Veröffentlichungen beschriebenen Geräte als Machbarkeitsnachweis untersucht werden und derzeit nicht kommerziell erhältlich sind, könnten sie den Weg für zukünftige Wissenschaft und möglicherweise zukünftige kommerzielle Geräte ebnen.

„Ich freue mich tatsächlich sehr über die kommerziellen Aktivitäten im Bereich Gehirn-Computer-Schnittstellen“, sagte Henderson. „Für mich schließt sich der Kreis von dem Wunsch, als Kind mit meinem Vater kommunizieren zu können, zu der Tatsache, dass dies tatsächlich funktioniert. Es ist unbeschreiblich.“

source site

Leave a Reply