Das Nanodrahtnetzwerk ahmt das Gehirn nach und lernt Handschrift mit einer Genauigkeit von 93,4 %

Zusammenfassung: Forscher entwickelten ein experimentelles Computersystem, das einem biologischen Gehirn ähnelt und handgeschriebene Zahlen mit einer Genauigkeit von 93,4 % erfolgreich identifizierte.

Dieser Durchbruch wurde mithilfe eines neuartigen Trainingsalgorithmus erzielt, der kontinuierliches Echtzeit-Feedback liefert und herkömmliche Batch-Datenverarbeitungsmethoden mit einer Genauigkeit von 91,4 % übertrifft.

Das Design des Systems zeichnet sich durch ein selbstorganisierendes Netzwerk aus Nanodrähten auf Elektroden aus, wobei Speicher- und Verarbeitungsfunktionen im Gegensatz zu herkömmlichen Computern mit separaten Modulen miteinander verwoben sind.

Dieser Fortschritt im gehirninspirierten Computing könnte KI-Anwendungen revolutionieren, da sie weniger Strom benötigen und bei der komplexen Datenanalyse hervorragende Leistungen erbringen.

Wichtige Fakten:

  1. Das Nanodraht-Netzwerksystem zeigte überlegene Lernfähigkeiten und erreichte eine Genauigkeit von 93,4 % bei der Identifizierung handgeschriebener Zahlen.
  2. Der einzigartige Trainingsalgorithmus und die Speicherkapazität des Systems innerhalb seiner physischen Struktur heben es von herkömmlichen Computeransätzen ab.
  3. Diese Technologie zeigt Potenzial für energieeffiziente KI-Anwendungen, die in der Lage sind, komplexe, sich entwickelnde Daten in Echtzeit zu verarbeiten.

Quelle: UCLA

Ein experimentelles Computersystem, das physikalisch dem biologischen Gehirn nachempfunden ist, „lernte“, handschriftliche Zahlen mit einer Gesamtgenauigkeit von 93,4 % zu identifizieren.

Die wichtigste Innovation des Experiments war ein neuer Trainingsalgorithmus, der dem System während des Lernens kontinuierlich Informationen über seinen Erfolg bei der Aufgabe in Echtzeit lieferte.

Es wird erwartet, dass das Nanodrahtnetzwerk, das sich noch in der Entwicklung befindet, weit weniger Strom benötigt als siliziumbasierte Systeme der künstlichen Intelligenz, um ähnliche Aufgaben auszuführen. Bildnachweis: Neuroscience News

Der Algorithmus übertraf einen herkömmlichen maschinellen Lernansatz, bei dem das Training nach der Verarbeitung eines Datenstapels durchgeführt wurde, und erzielte eine Genauigkeit von 91,4 %. Die Forscher zeigten auch, dass die im System selbst gespeicherte Erinnerung an vergangene Eingaben das Lernen förderte. Im Gegensatz dazu speichern andere Computeransätze den Speicher in Software oder Hardware getrennt vom Prozessor eines Geräts.

HINTERGRUND

Seit 15 Jahren entwickeln Forscher am California NanoSystems Institute der UCLA (CNSI) eine neue Plattformtechnologie für die Berechnung. Bei der Technologie handelt es sich um ein vom Gehirn inspiriertes System, das aus einem verwickelten Netzwerk silberhaltiger Drähte besteht, die auf einem Elektrodenbett verlegt sind.

Das System empfängt Input und erzeugt Output über Stromimpulse. Die einzelnen Drähte sind so klein, dass ihr Durchmesser im Nanomaßstab, also im Milliardstel Meter, gemessen wird.

Die „winzigen Silbergehirne“ unterscheiden sich stark von heutigen Computern, die separate Speicher- und Verarbeitungsmodule aus Atomen enthalten, deren Position sich nicht ändert, wenn Elektronen durch sie fließen.

Im Gegensatz dazu konfiguriert sich das Nanodrahtnetzwerk als Reaktion auf einen Reiz physisch neu, wobei das Gedächtnis auf seiner atomaren Struktur basiert und sich im gesamten System ausbreitet. Wo sich Drähte überlappen, können Verbindungen entstehen oder unterbrochen werden – analog zum Verhalten von Synapsen im biologischen Gehirn, wo Neuronen miteinander kommunizieren.

Forschungsmitarbeiter an der Universität Sydney haben einen optimierten Algorithmus für die Bereitstellung von Eingaben und die Interpretation von Ausgaben entwickelt. Der Algorithmus ist so angepasst, dass er die gehirnähnliche Fähigkeit des Systems nutzt, sich dynamisch zu verändern und mehrere Datenströme gleichzeitig zu verarbeiten.

METHODE

Das gehirnähnliche System bestand aus einem Material, das Silber und Selen enthielt, das sich auf einer Anordnung von 16 Elektroden selbst zu einem Netzwerk verschlungener Nanodrähte organisieren konnte. Wissenschaftler trainierten und testeten das Nanodrahtnetzwerk anhand von Bildern handgeschriebener Zahlen, einem Datensatz, der vom National Institute of Standards and Technology erstellt wurde und häufig zum Benchmarking maschineller Lernsysteme verwendet wird.

Die Bilder wurden Pixel für Pixel mithilfe von Stromimpulsen von jeweils einer Dauer von einer Tausendstelsekunde an das System übermittelt, wobei unterschiedliche Spannungen helle oder dunkle Pixel repräsentierten.

AUSWIRKUNGEN

Es wird erwartet, dass das Nanodrahtnetzwerk, das sich noch in der Entwicklung befindet, weit weniger Strom benötigt als siliziumbasierte Systeme der künstlichen Intelligenz, um ähnliche Aufgaben auszuführen. Das Netzwerk erweist sich auch bei Aufgaben als vielversprechend, die aktuelle KI nur schwer bewältigen kann: komplexe Daten wie Muster im Wetter, im Verkehr und in anderen Systemen, die sich im Laufe der Zeit ändern, zu verstehen. Dafür benötigt die heutige KI enorme Mengen an Trainingsdaten und einen extrem hohen Energieaufwand.

Mit der in dieser Studie verwendeten Art des Co-Designs – Hardware und Software werden gemeinsam entwickelt – können Nanodrahtnetzwerke letztendlich eine ergänzende Rolle neben siliziumbasierten elektronischen Geräten spielen.

Gehirnähnliches Gedächtnis und Verarbeitung, eingebettet in physische Systeme, die sich kontinuierlich anpassen und lernen können, eignen sich möglicherweise besonders gut für das sogenannte „Edge Computing“, das komplexe Daten vor Ort verarbeitet, ohne dass eine Kommunikation mit weit entfernten Servern erforderlich ist.

Mögliche Einsatzmöglichkeiten umfassen Robotik, autonome Navigation in Maschinen wie Fahrzeugen und Drohnen und die Smart-Device-Technologie, die das Internet der Dinge ausmacht, sowie Gesundheitsüberwachung und Koordinierung von Messungen von Sensoren an mehreren Standorten.

AUTOREN

Die entsprechenden Autoren der Studie sind James Gimzewski, ein angesehener Chemieprofessor der UCLA und CNSI-Mitglied; Adam Stieg, ein UCLA-Forschungswissenschaftler und stellvertretender Direktor des CNSI; Zdenka Kuncic, Professorin für Physik an der University of Sydney; und Ruomin Zhu, ein Doktorand der Universität Sydney, der auch Erstautor ist. Weitere Co-Autoren sind Sam Lilak, der 2022 an der UCLA promovierte; und Alon Loeffler und Joseph Lizier von der University of Sydney.

FINANZIERUNG

Die Studie wurde von der University of Sydney und der Australian-American Fulbright Commission unterstützt.

Über diese Neuigkeiten aus der Computational Neuroscience-Forschung

Autor: Nicole Wilkins
Quelle: UCLA
Kontakt: Nicole Wilkins – UCLA
Bild: Das Bild stammt von Neuroscience News

Ursprüngliche Forschung: Offener Zugang.
„Online dynamisches Lernen und Sequenzgedächtnis mit neuromorphen Nanodrahtnetzwerken“ von James Gimzewski et al. Naturkommunikation


Abstrakt

Dynamisches Online-Lernen und Sequenzgedächtnis mit neuromorphen Nanodrahtnetzwerken

Nanowire Networks (NWNs) gehören zu einer aufstrebenden Klasse neuromorpher Systeme, die die einzigartigen physikalischen Eigenschaften nanostrukturierter Materialien nutzen. Zusätzlich zu ihrer physikalischen Struktur, die einem neuronalen Netzwerk ähnelt, weisen NWNs aufgrund synapsenartiger Leitfähigkeitsänderungen an Nanodraht-Nanodraht-Kreuzungspunktverbindungen auch eine widerstandsbehaftete Speicherumschaltung als Reaktion auf elektrische Eingaben auf.

Frühere Studien haben gezeigt, wie die von NWNs erzeugte neuromorphe Dynamik für zeitliche Lernaufgaben genutzt werden kann.

Diese Studie erweitert diese Erkenntnisse weiter, indem sie Online-Lernen aus raumzeitlichen dynamischen Merkmalen mithilfe von Bildklassifizierungs- und Sequenzspeicherabrufaufgaben demonstriert, die auf einem NWN-Gerät implementiert sind.

Angewendet auf die MNIST-Aufgabe zur handschriftlichen Ziffernklassifizierung erreicht das dynamische Online-Lernen mit dem NWN-Gerät eine Gesamtgenauigkeit von 93,4 %.

Darüber hinaus finden wir einen Zusammenhang zwischen der Klassifizierungsgenauigkeit einzelner Ziffernklassen und der gegenseitigen Information. Die Sequenzgedächtnisaufgabe zeigt, wie in den dynamischen Merkmalen eingebettete Gedächtnismuster das Online-Lernen und Abrufen eines räumlich-zeitlichen Sequenzmusters ermöglichen.

Insgesamt liefern diese Ergebnisse einen Proof-of-Concept des Online-Lernens aus räumlich-zeitlicher Dynamik mithilfe von NWNs und verdeutlichen weiter, wie das Gedächtnis das Lernen verbessern kann.

source site

Leave a Reply