Wissenschaftler lesen die Gehirnsignale von Vögeln, um vorherzusagen, was sie als nächstes singen werden

Signale im Gehirn von Vögeln wurden von Wissenschaftlern gelesen, um einen Durchbruch zu erzielen, der dazu beitragen könnte, Prothesen für Menschen zu entwickeln, die die Fähigkeit zu sprechen verloren haben.

In der Studie zeichneten Silikonimplantate das Feuern von Gehirnzellen auf, während männliche Zebrafinken ihr volles Repertoire an Liedern durchspielten.

Das Füttern der Gehirnsignale durch künstliche Intelligenz ermöglichte es dem Team der University of California San Diego, vorherzusagen, was die Vögel als nächstes singen würden.

Der Durchbruch öffnet die Tür zu neuen Geräten, mit denen die Gedanken von Menschen, die nicht sprechen können, erstmals in echte, gesprochene Worte umgewandelt werden können.

Gegenwärtige hochmoderne Implantate ermöglichen es dem Benutzer, Text mit einer Geschwindigkeit von etwa 20 Wörtern pro Minute zu generieren, aber diese Technik könnte eine völlig natürliche „neue Stimme“ ermöglichen.

Der Co-Autor der Studie, Timothy Gentner, sagte, er habe sich eine Stimmprothese für Menschen ohne Stimme vorgestellt, die es ihnen ermöglicht, auf natürliche Weise mit Sprache zu kommunizieren.

Illustration des experimentellen Workflows. Wenn ein Zebrafinkenmännchen sein Lied singt – das aus der Sequenz „1, 2, 3“ besteht – denkt er über die nächste Silbe nach, die er singen wird („4“)

In der Studie zeichneten Silikonimplantate das Feuern von Gehirnzellen auf, während männliche Zebrafinken ihr volles Repertoire an Liedern durchspielten.  Bild einer Bildagentur

In der Studie zeichneten Silikonimplantate das Feuern von Gehirnzellen auf, während männliche Zebrafinken ihr volles Repertoire an Liedern durchspielten. Bild einer Bildagentur

WIE SIE VOGELSPRACHE VORHERGESAGT HABEN

Forscher implantierten Silikonelektroden in das Gehirn von erwachsenen Zebrafinken und zeichneten die neuronale Aktivität der Vögel auf, während sie sangen.

Sie untersuchten einen bestimmten Satz elektrischer Signale, die als lokale Feldpotentiale bezeichnet werden.

Diese Signale wurden in dem Teil des Gehirns aufgezeichnet, der für das Lernen und die Produktion von Liedern notwendig ist.

Bekannt als “lokale Feldpotentiale”, fanden sie heraus, dass sie sich in bestimmte Silben des Vogelgesangs übersetzen lassen.

Und sagen Sie voraus, wann die Silben während des Liedes auftreten werden.

Der Erstautor Daril Brown, ein Doktorand in Computertechnik, sagte, die Arbeit mit Vogelgehirnen „bereite die Bühne für das größere Ziel“, den Stimmlosen eine Stimme zu geben.

“Wir untersuchen das Vogelgezwitscher auf eine Weise, die uns helfen wird, der Entwicklung einer Gehirn-Maschine-Schnittstelle für Stimmgebung und Kommunikation einen Schritt näher zu kommen.”

Vogelgesang und menschliche Sprache haben viele Gemeinsamkeiten, einschließlich der Tatsache, dass beides erlerntes Verhalten ist und komplexer als andere Tiergeräusche ist.

Mit den Signalen aus Vogelgehirnen konzentrierte sich das Team auf eine Reihe von elektrischen Signalen, die als “lokale Feldpotentiale” bezeichnet werden.

Diese sind notwendig, um Lieder zu lernen und zu produzieren.

Sie wurden bereits am Menschen intensiv untersucht und wurden verwendet, um das Stimmverhalten der Zebrafinken vorherzusagen.

Der Co-Leiter des Projekts, Professor Vikash Gilja, sagte: „Unsere Motivation zur Erforschung lokaler Feldpotenziale war der Großteil der ergänzenden menschlichen Arbeit zur Entwicklung von Sprachprothesen, die sich auf diese Arten von Signalen konzentriert hat.

„In dieser Arbeit zeigen wir, dass es viele Ähnlichkeiten in dieser Art der Signalübertragung zwischen Zebrafinken und Menschen sowie anderen Primaten gibt.

“Mit diesen Signalen können wir beginnen, die Absicht des Gehirns zu entschlüsseln, Sprache zu erzeugen.”

Verschiedene Merkmale, die in spezifische “Silben” des Vogelgesangs übersetzt werden – zeigen, wann sie auftreten werden – und ermöglichen Vorhersagealgorithmen.

„Mit diesem System sind wir in der Lage, mit hoher Genauigkeit den Beginn des Stimmverhaltens eines Singvogels vorherzusagen – welche Sequenz der Vogel singen wird und wann er singen wird“, erklärte Brown.

Sie nahmen sogar Variationen in der Songfolge vorweg – bis hin zur Silbe.

Der Co-Leiter des Projekts, Prof. Timothy Gentner, sagte: „Längerfristig wollen wir die detaillierten Erkenntnisse, die wir aus dem Singvogel-Gehirn gewinnen, nutzen, um eine Kommunikationsprothese zu entwickeln, die die Lebensqualität von Menschen mit einer Vielzahl von Krankheiten und Störungen verbessern kann.“ '

Der Co-Leiter des Projekts, Prof. Timothy Gentner, sagte: „Längerfristig wollen wir die detaillierten Erkenntnisse, die wir aus dem Singvogel-Gehirn gewinnen, nutzen, um eine Kommunikationsprothese zu entwickeln, die die Lebensqualität von Menschen mit einer Vielzahl von Krankheiten und Störungen verbessern kann.“ ‘

Elon Musk Neuralink lässt einen Affen mit seinem MIND Pong spielen

Neuralink von Elon Musk hat sein neuestes Gehirnimplantat gezeigt, indem es einen Affen dazu gebracht hat, mit seinem Verstand Pong zu spielen.

Das Gehirn-Computer-Interface wurde einem neun Jahre alten Makaken namens Pager implantiert.

Das Gerät in seinem Gehirn zeichnete Informationen über die feuernden Neuronen auf, während er das Spiel spielte.

Musk sagte auf Twitter: “Bald wird unser Affe auf Zucken und Zwietracht sein.”

Letzten Monat teilte der Tech-Tycoon einem Twitter-Nutzer mit, dass er mit der US-amerikanischen Food and Drug Administration zusammenarbeite, um die Genehmigung für den Beginn von Studien am Menschen zu erhalten.

Es kann zum Beispiel auf einem sich wiederholenden Satz von vier gebaut werden – und ab und zu auf fünf oder drei wechseln. Veränderungen in den Signalen enthüllten sie.

Sagen wir, der Vogelgesang besteht aus sich wiederholenden Silben, „1, 2, 3, 4“, und hin und wieder kann sich die Sequenz in etwas wie „1, 2, 3, 4, 5“ oder „1“ ändern , 2, 3.“

Merkmale in den lokalen Feldpotentialen zeigen diese Veränderungen, fanden die Forscher.

„Diese Variationsformen sind für uns wichtig, um hypothetische Sprachprothesen zu testen, denn ein Mensch wiederholt nicht nur einen Satz immer wieder“, sagt Prof. Gilja.

“Es ist spannend, dass wir in den Gehirnsignalen, die in Studien der Humanphysiologie aufgezeichnet und dokumentiert werden, Parallelen zu unserer Studie bei Singvögeln gefunden haben.”

Zustände, die mit einem Verlust der Sprech- oder Sprachfunktionen einhergehen, reichen von Kopfverletzungen bis hin zu Demenz und Hirntumoren.

Der Co-Leiter des Projekts, Prof. Timothy Gentner, sagte: „Längerfristig wollen wir die detaillierten Erkenntnisse, die wir aus dem Singvogel-Gehirn gewinnen, nutzen, um eine Kommunikationsprothese zu entwickeln, die die Lebensqualität von Menschen mit einer Vielzahl von Krankheiten und Störungen verbessern kann.“ .’

SpaceX-Gründer Elon Musk und Facebook-CEO Mark Zuckerberg arbeiten derzeit an Gehirnlesegeräten, die es ermöglichen sollen, Texte durch Gedanken zu versenden.

Die Studie ist in PLoS Computational Biology.

WIE KÜNSTLICHE INTELLIGENZEN MIT NEURALEN NETZWERKEN LERNEN

KI-Systeme basieren auf künstlichen neuronalen Netzen (KNN), die versuchen, die Funktionsweise des Gehirns zu simulieren, um zu lernen.

KNN können darauf trainiert werden, Muster in Informationen zu erkennen – einschließlich Sprache, Textdaten oder visuellen Bildern – und sind die Grundlage für eine Vielzahl von Entwicklungen in der KI in den letzten Jahren.

Herkömmliche KI verwendet Eingaben, um einen Algorithmus zu einem bestimmten Thema zu „lehren“, indem sie ihm riesige Mengen an Informationen zuführt.

KI-Systeme basieren auf künstlichen neuronalen Netzen (KNN), die versuchen, die Funktionsweise des Gehirns zu simulieren, um zu lernen.  KNN können darauf trainiert werden, Muster in Informationen zu erkennen – einschließlich Sprache, Textdaten oder visuellen Bildern

KI-Systeme basieren auf künstlichen neuronalen Netzen (KNN), die versuchen, die Funktionsweise des Gehirns zu simulieren, um zu lernen. KNN können darauf trainiert werden, Muster in Informationen zu erkennen – einschließlich Sprache, Textdaten oder visuellen Bildern

Zu den praktischen Anwendungen gehören die Sprachübersetzungsdienste von Google, die Gesichtserkennungssoftware von Facebook und die bildverändernden Live-Filter von Snapchat.

Die Eingabe dieser Daten kann extrem zeitaufwendig sein und ist auf eine Art von Wissen beschränkt.

Eine neue Art von KNN namens Adversarial Neural Networks lässt die Intelligenz zweier KI-Bots gegeneinander antreten, wodurch sie voneinander lernen können.

Dieser Ansatz soll den Lernprozess beschleunigen und die von KI-Systemen erzeugten Ergebnisse verfeinern.

.
source site

Leave a Reply