Eine KI kann Sprache mit überraschender Genauigkeit aus der Gehirnaktivität entschlüsseln

Eine künstliche Intelligenz kann Wörter und Sätze aus der Gehirnaktivität mit überraschender – aber immer noch begrenzter – Genauigkeit entschlüsseln. Anhand von Gehirnaktivitätsdaten von nur wenigen Sekunden errät die KI, was eine Person gehört hat. Es listet die richtige Antwort in seinen Top 10 Möglichkeiten in bis zu 73 Prozent der Fälle auf, fanden Forscher in einer Vorstudie heraus.

Die „Leistung der KI lag über dem, was viele Menschen zu diesem Zeitpunkt für möglich hielten“, sagt Giovanni Di Liberto, ein Informatiker am Trinity College Dublin, der nicht an der Forschung beteiligt war.

Die von der Muttergesellschaft von Facebook, Meta, entwickelte KI könnte schließlich dazu verwendet werden, Tausenden von Menschen auf der ganzen Welt zu helfen, die nicht in der Lage sind, durch Sprache, Tippen oder Gesten zu kommunizieren, berichten Forscher am 25. August auf arXiv.org. Dazu gehören viele Patienten in minimal bewussten, eingeschlossenen oder „vegetativen Zuständen“ – was heute allgemein als unresponsives Wachheitssyndrom bekannt ist (SN: 2/8/19).

Die meisten bestehenden Technologien, die solchen Patienten bei der Kommunikation helfen sollen, erfordern riskante Gehirnoperationen, um Elektroden zu implantieren. Dieser neue Ansatz „könnte einen praktikablen Weg bieten, um Patienten mit Kommunikationsdefiziten zu helfen … ohne den Einsatz invasiver Methoden“, sagt der Neurowissenschaftler Jean-Rémi King, ein Meta-KI-Forscher, der derzeit an der École Normale Supérieure in Paris arbeitet.

King und seine Kollegen trainierten ein Computertool, um Wörter und Sätze in 56.000 Stunden Sprachaufzeichnungen aus 53 Sprachen zu erkennen. Das Tool, auch als Sprachmodell bekannt, lernte, spezifische Merkmale der Sprache sowohl auf einer feinkörnigen Ebene – denken Sie an Buchstaben oder Silben – als auch auf einer breiteren Ebene, wie einem Wort oder Satz, zu erkennen.

Das Team wendete eine KI mit diesem Sprachmodell auf Datenbanken von vier Institutionen an, die die Gehirnaktivität von 169 Freiwilligen enthielten. In diesen Datenbanken hörten die Teilnehmer verschiedene Geschichten und Sätze, beispielsweise von Ernest Hemingway Der alte Mann und das Meer und Lewis Carrolls Alices Abenteuer im Wunderland während die Gehirne der Menschen entweder mit Magnetenzephalographie oder Elektroenzephalographie gescannt wurden. Diese Techniken messen die magnetische oder elektrische Komponente von Gehirnsignalen.

Dann versuchte das Team mit Hilfe einer Rechenmethode, die dabei hilft, physische Unterschiede zwischen tatsächlichen Gehirnen zu berücksichtigen, zu entschlüsseln, was die Teilnehmer gehört hatten, indem es nur drei Sekunden der Gehirnaktivitätsdaten jeder Person verwendete. Das Team wies die KI an, die Sprachgeräusche aus den Geschichtenaufzeichnungen an Muster der Gehirnaktivität anzupassen, die die KI als Übereinstimmung mit dem, was die Menschen hörten, berechnete. Es machte dann Vorhersagen darüber, was die Person in dieser kurzen Zeit gehört haben könnte, bei mehr als 1.000 Möglichkeiten.

Unter Verwendung der Magnetoenzephalographie oder MEG war die richtige Antwort in den Top-10-Vermutungen der KI in bis zu 73 Prozent der Fälle, fanden die Forscher heraus. Mit der Elektroenzephalographie sank dieser Wert auf nicht mehr als 30 Prozent. „[That MEG] Die Leistung ist sehr gut“, sagt Di Liberto, aber er ist weniger optimistisch, was den praktischen Nutzen betrifft. „Was können wir damit machen? Nichts. Absolut gar nichts.”

Der Grund, sagt er, ist, dass MEG eine sperrige und teure Maschine benötigt. Um diese Technologie in die Kliniken zu bringen, sind wissenschaftliche Innovationen erforderlich, die die Geräte billiger und benutzerfreundlicher machen.

Es ist auch wichtig zu verstehen, was „Decodierung“ in dieser Studie wirklich bedeutet, sagt Jonathan Brennan, Linguist an der University of Michigan in Ann Arbor. Das Wort wird oft verwendet, um den Prozess der Entschlüsselung von Informationen direkt aus einer Quelle zu beschreiben – in diesem Fall Sprache aus Gehirnaktivität. Aber die KI konnte dies nur tun, weil ihr eine endliche Liste möglicher richtiger Antworten zur Verfügung gestellt wurde, um ihre Vermutungen anzustellen.

„Mit der Sprache wird das nicht ausreichen, wenn wir auf den praktischen Gebrauch skalieren wollen, denn Sprache ist unendlich“, sagt Brennan.

Darüber hinaus, sagt Di Liberto, entschlüsselte die KI Informationen von Teilnehmern, die passiv Audio hörten, was für nonverbale Patienten nicht direkt relevant ist. Damit es zu einem sinnvollen Kommunikationsinstrument wird, müssen Wissenschaftler lernen, aus der Gehirnaktivität zu entschlüsseln, was diese Patienten zu sagen beabsichtigen, einschließlich Äußerungen von Hunger, Unbehagen oder einem einfachen „Ja“ oder „Nein“.

Die neue Studie ist „Entschlüsselung der Sprachwahrnehmung, nicht der Produktion“, stimmt King zu. Obwohl die Sprachproduktion das ultimative Ziel ist, „sind wir noch ziemlich weit davon entfernt“.

source site

Leave a Reply