Dieses Baby mit einer Kopfkamera half einer KI beizubringen, wie Kinder Sprache lernen

Für dieses Experiment stützten sich die Forscher auf 61 Stunden Videomaterial einer Helmkamera, die ein Kind trug, das in der Nähe von Adelaide, Australien, lebt. Dieses Kind, Sam, trug die Kamera eineinhalb Jahre lang immer wieder, von seinem sechsten Monat bis kurz nach seinem zweiten Geburtstag. Die Kamera erfasste die Dinge, die Sam während etwa 1 % seiner wachen Stunden ansah und auf die er seine Aufmerksamkeit achtete. Es wurden Sams zwei Katzen, seine Eltern, sein Kinderbett und seine Spielsachen, sein Haus, seine Mahlzeiten und vieles mehr aufgezeichnet. „Dieser Datensatz war völlig einzigartig“, sagt Lake. „Es ist das beste Fenster, das wir je hatten, um zu sehen, wozu ein einzelnes Kind Zugang hat.“

Um das Modell zu trainieren, verwendeten Lake und seine Kollegen 600.000 Videobilder gepaart mit den Sätzen, die von Sams Eltern oder anderen Personen im Raum gesprochen wurden, als das Bild aufgenommen wurde – insgesamt 37.500 „Äußerungen“. Manchmal stimmten die Wörter und Objekte überein. Manchmal taten sie es nicht. Auf einem Standbild schaut Sam beispielsweise auf einen Formensortierer und ein Elternteil sagt: „Die Schnur gefällt dir.“ In einem anderen Fall bedeckt eine erwachsene Hand einige Blöcke und ein Elternteil sagt: „Du willst die Blöcke auch.“

Das Team gab dem Modell zwei Hinweise. Wenn Objekte und Wörter zusammen vorkommen, ist das ein Zeichen dafür, dass sie möglicherweise miteinander verbunden sind. Wenn ein Objekt und ein Wort jedoch nicht zusammen vorkommen, ist das ein Zeichen dafür, dass sie wahrscheinlich nicht zusammenpassen. „Wir haben also diese Art des Zusammenziehens und Auseinanderdrängens, die innerhalb des Modells auftritt“, sagt Wai Keen Vong, ein computergestützter Kognitionswissenschaftler an der New York University und Autor der Studie. „Dann besteht die Hoffnung, dass es in den Daten genügend Fälle gibt, in denen das Kind einen Ball sieht, wenn die Eltern das Wort ‚Ball‘ sagen“, sagt er.

Die Zuordnung von Wörtern zu den Objekten, die sie darstellen, mag wie eine einfache Aufgabe erscheinen, ist es aber nicht. Um Ihnen einen Eindruck vom Ausmaß des Problems zu vermitteln, stellen Sie sich das Wohnzimmer einer Familie mit kleinen Kindern vor. Es gibt alle normalen Wohnzimmermöbel, aber auch Kinderkram. Der Boden ist mit Spielzeug übersät. Auf dem Couchtisch liegen Buntstifte verstreut. Auf der Fensterbank steht ein Snackbecher und auf einem Stuhl Wäsche. Wenn ein Kleinkind das Wort „Ball“ hört, könnte es sich auf einen Ball beziehen. Es könnte sich aber auch auf jedes andere Spielzeug, die Couch, eine Hose, die Form eines Gegenstands, seine Farbe oder die Tageszeit beziehen. „Für jedes Wort gibt es unendlich viele mögliche Bedeutungen“, sagt Lake.

Das Problem ist so unlösbar, dass einige Entwicklungspsychologen argumentieren, dass Kinder mit einem angeborenen Verständnis dafür geboren werden müssen, wie Sprache funktioniert, um sie so schnell lernen zu können. Aber die Studie legt nahe, dass einige Teile der Sprache auch ohne diese angeborene Fähigkeit aus einer wirklich kleinen Menge an Erfahrungen erlernt werden können, sagt Jess Sullivan, eine Entwicklungspsychologin an der Skidmore University, die zu dem Team gehörte, das Sams Helmkameradaten sammelte, dies aber nicht war an der neuen Studie beteiligt. „Das bringt für mich wirklich mein Weltbild durcheinander.“

Aber Sullivan weist darauf hin, dass die Fähigkeit, Wörter den Objekten zuzuordnen, die sie darstellen, zwar ein schwieriges Lernproblem, aber nur ein Teil dessen ist, was Sprache ausmacht. Es gibt auch Regeln, die regeln, wie Wörter aneinandergereiht werden. Ihr Hund kennt vielleicht die Wörter „Ball“ oder „Spaziergang“, aber das bedeutet nicht, dass er Englisch verstehen kann. Und es könnte sein, dass die angeborene Sprachfähigkeit, die Babys besitzen, über den Wortschatz hinausgeht. Es könnte beeinflussen, wie sie sich durch die Welt bewegen, worauf sie achten oder wie sie auf Sprache reagieren. „Ich glaube nicht, dass die Studie funktioniert hätte, wenn die Babys nicht den Datensatz erstellt hätten, aus dem das neuronale Netz lernte“, sagt sie.

BRENDEN-SEE

Der nächste Schritt für Lake und seine Kollegen besteht darin, herauszufinden, was sie brauchen, damit das Lernen des Modells das frühe Sprachenlernen bei Kindern besser nachahmt. „Es gibt noch viel zu tun, um ein Modell zu bekommen, das die Fähigkeiten eines Zweijährigen vollständig besitzt“, sagt er. Das könnte bedeuten, mehr Daten bereitzustellen. Lakes Kind, das jetzt 18 Monate alt ist, gehört zur nächsten Kohorte von Kindern, die diese Daten liefern. Sie trägt einige Stunden pro Woche eine Helmkamera. Oder vielleicht muss das Modell auf den Blick der Eltern achten oder ein Gefühl für die Festigkeit von Objekten haben – etwas, das Kinder intuitiv erfassen. Die Entwicklung von Modellen, die eher wie Kinder lernen können, wird den Forschern helfen, das menschliche Lernen und die menschliche Entwicklung besser zu verstehen.

KI-Modelle, die einige der Arten aufgreifen können, wie Menschen Sprache lernen, könnten beim Lernen weitaus effizienter sein; Sie könnten sich eher wie Menschen verhalten und weniger wie „eine schwerfällige statistische Maschine für den Mustervergleich“, wie der Linguist Noam Chomsky und seine Kollegen einst große Sprachmodelle wie ChatGPT beschrieben haben. „KI-Systeme sind immer noch anfällig und es mangelt ihnen an gesundem Menschenverstand“, sagt Howard Shrobe, der das Programm bei der Defense Advanced Research Projects Agency der US-Regierung leitet, das zur Finanzierung von Lakes Team beitrug. Aber eine KI, die wie ein Kind lernen könnte, könnte in der Lage sein, Bedeutungen zu verstehen, auf neue Situationen zu reagieren und aus neuen Erfahrungen zu lernen. Ziel ist es, die KI der menschlichen Intelligenz einen Schritt näher zu bringen.

source site

Leave a Reply