ChatGPT ähnelt einem Stück des menschlichen Gehirns. Genau deshalb ist es nicht sehr schlau.

Sprache wird gemeinhin als „Stoff“ des Denkens verstanden. Menschen „sprechen es aus“ und „äußern ihre Meinung“, folgen „Gedankengängen“ oder „Bewusstseinsströmen“. Einige der Höhepunkte der menschlichen Schöpfung – Musik, Geometrie, Computerprogrammierung – werden als metaphorische Sprachen eingerahmt. Die zugrunde liegende Annahme ist, dass das Gehirn die Welt und unsere Erfahrung davon durch eine Folge von Wörtern verarbeitet. Und diese vermeintliche Verbindung zwischen Sprache und Denken ist ein großer Teil dessen, was ChatGPT und ähnliche Programme so unheimlich macht: Die Fähigkeit der KI, jede Eingabeaufforderung mit menschlich klingender Sprache zu beantworten, kann darauf hindeuten, dass die Maschine eine Art Absicht, sogar Empfindungsfähigkeit hat.

Aber dann sagt das Programm etwas völlig Absurdes – dass 12 Buchstaben drin sind neunzehn oder dass Segelfische Säugetiere sind – und der Schleier fällt. Obwohl ChatGPT flüssige und manchmal elegante Texte erzeugen kann und den Turing-Test-Benchmark, der das Feld der KI seit mehr als 70 Jahren verfolgt, problemlos besteht, kann es auch unglaublich dumm, ja sogar gefährlich erscheinen. Es macht Rechenfehler, gibt nicht die grundlegendsten Kochanweisungen und zeigt schockierende Vorurteile. Kognitionswissenschaftler und Linguisten adressieren in einer neuen Arbeit diese Dissonanz, indem sie die Kommunikation über Sprache vom Akt des Denkens trennen: Die Fähigkeit für das eine impliziert nicht das andere. In einer Zeit, in der Experten auf das Potenzial der generativen KI fixiert sind, jeden Aspekt unserer Lebens- und Arbeitsweise zu stören, sollte ihre Argumentation eine Neubewertung der Grenzen und Komplexitäten künstlicher und menschlicher Intelligenz gleichermaßen erzwingen.

Das erklären die Forscher Wörter funktioniert möglicherweise nicht sehr gut als Synekdoche für habe gedacht. Menschen identifizieren sich schließlich auf einem Kontinuum von visuellem bis verbalem Denken; Die Erfahrung, eine Idee nicht in Worte fassen zu können, ist vielleicht so menschlich wie die Sprache selbst. Auch die zeitgenössische Forschung zum menschlichen Gehirn deutet darauf hin, dass „es eine Trennung zwischen Sprache und Denken gibt“, sagt Anna Ivanova, kognitive Neurowissenschaftlerin am MIT und eine der beiden Hauptautorinnen der Studie. Gehirnscans von Menschen, die Dutzende von Sprachen verwenden, haben ein bestimmtes Netzwerk von Neuronen offenbart, das unabhängig von der verwendeten Sprache feuert (einschließlich erfundener Sprachen wie Na’vi und Dothraki).

Dieses Netzwerk von Neuronen ist im Allgemeinen nicht an Denkaktivitäten wie Mathematik, Musik und Codierung beteiligt. Darüber hinaus sind viele Patienten mit Aphasie – einem Verlust der Fähigkeit, Sprache zu verstehen oder zu produzieren, als Folge einer Hirnschädigung – weiterhin in der Lage, arithmetische und andere nichtsprachliche geistige Aufgaben zu bewältigen. Zusammengenommen deuten diese beiden Beweise darauf hin, dass Sprache allein nicht das Medium des Denkens ist; es ist eher wie ein Bote. Die Verwendung von Grammatik und einem Lexikon zur Kommunikation von Funktionen, die andere Teile des Gehirns betreffen, wie z. B. Sozialisation und Logik, macht die menschliche Sprache zu etwas Besonderem.

ChatGPT und ähnliche Software demonstrieren eine unglaubliche Fähigkeit, Wörter aneinander zu reihen, aber sie kämpfen mit anderen Aufgaben. Bitten Sie um einen Brief, der einem Kind erklärt, dass der Weihnachtsmann falsch ist, und Sie erhalten eine bewegende Botschaft, die von Sankt Nick selbst unterzeichnet wurde. Diese großen Sprachmodelle, auch LLMs genannt, funktionieren, indem sie das nächste Wort in einem Satz basierend auf allem davor vorhersagen (Volksglaube folgt gegensätzlich zu, zum Beispiel). Aber fragen Sie ChatGPT nach Grundrechenarten und Rechtschreibung oder geben Sie Ratschläge zum Braten eines Eies, und Sie erhalten möglicherweise grammatikalisch hervorragenden Unsinn: „Wenn Sie beim Wenden des Eies zu viel Kraft aufwenden, kann die Eierschale brechen und brechen.“

Diese Mängel weisen auf eine Unterscheidung zwischen dem Zusammenfügen von Wörtern und dem Zusammenfügen von Ideen hin, die derjenigen im menschlichen Gehirn nicht unähnlich ist – was die Autoren nennen formell und funktionell sprachliche Kompetenz bzw. „Sprachmodelle sind wirklich gut darin, eine fließende, grammatikalische Sprache zu erzeugen“, sagt der Linguist Kyle Mahowald von der University of Texas in Austin, der andere Hauptautor der Veröffentlichung. „Aber das bedeutet nicht unbedingt, dass etwas, das grammatikalische Sprache produzieren kann, in der Lage ist, Mathematik oder logisches Denken zu beherrschen oder zu denken oder sich in sozialen Kontexten zurechtzufinden.“

Wenn das Sprachnetzwerk des menschlichen Gehirns nicht für Mathematik, Musik oder Programmierung zuständig ist – also z Denken– dann gibt es auch keinen Grund, warum ein künstliches „neuronales Netzwerk“, das mit Terabytes an Text trainiert wurde, in diesen Dingen gut wäre. „In Übereinstimmung mit Beweisen aus der kognitiven Neurowissenschaft“, schreiben die Autoren, „hebt das Verhalten von LLMs den Unterschied zwischen gut in der Sprache und gut im Denken hervor.“ Die Fähigkeit von ChatGPT, bei einigen Wirtschafts- und Juraprüfungen mittelmäßige Ergebnisse zu erzielen, ist also eher eine Fata Morgana als ein Zeichen des Verständnisses.

Dennoch schwirrt ein Hype um die nächste Iteration von Sprachmodellen, die mit viel mehr Wörtern und mit viel mehr Rechenleistung trainieren werden. OpenAI, der Schöpfer von ChatGPT, behauptet, dass sich seine Programme einer sogenannten allgemeinen Intelligenz annähern, die die Maschinen mit der Menschheit auf eine Stufe stellen würde. Aber wenn der Vergleich mit dem menschlichen Gehirn zutrifft, dann bringt es sie diesem Ziel nicht viel näher, Modelle einfach besser bei der Wortvorhersage zu machen. Mit anderen Worten, Sie können die Vorstellung verwerfen, dass KI-Programme wie ChatGPT eine Seele haben oder einer Alien-Invasion ähneln.

Ivanova und Mahowald glauben, dass andere Trainingsmethoden erforderlich sind, um weitere Fortschritte in der KI voranzutreiben – zum Beispiel Ansätze, die eher auf logisches oder soziales Denken als auf Wortvorhersagen abzielen. ChatGPT hat möglicherweise bereits einen Schritt in diese Richtung unternommen und nicht nur riesige Textmengen gelesen, sondern auch menschliches Feedback einbezogen: Vorgesetzte konnten kommentieren, was gute oder schlechte Antworten waren. Da jedoch nur wenige Details über das Training von ChatGPT verfügbar sind, ist unklar, worauf dieser menschliche Input abzielte. das Programm denkt offenbar 1.000 ist sowohl größer als auch kleiner als 1.062. (OpenAI hat gestern ein Update für ChatGPT veröffentlicht, das angeblich seine „mathematischen Fähigkeiten“ verbessert, aber es ist immer noch so angeblich mit einfachen Wortproblemen zu kämpfen.)

Es sollte beachtet werden, dass es Leute gibt, die glauben, dass große Sprachmodelle nicht so gut in der Sprache sind, wie Ivanova und Mahowald schreiben – dass sie im Grunde verherrlichte automatische Vervollständigungen sind, deren Fehler mit ihrer Macht skalieren. „Sprache ist mehr als nur Syntax“, sagt Gary Marcus, Kognitionswissenschaftler und prominenter KI-Forscher. „Insbesondere geht es auch darum Semantik.“ Es ist nicht nur so, dass KI-Chatbots keine Mathematik verstehen oder wie man Eier brät – sie tun sich auch schwer damit, zu verstehen, wie ein Satz aus der Struktur seiner Teile Bedeutung ableitet.

Stellen Sie sich zum Beispiel drei Plastikkugeln in einer Reihe vor: grün, blau, blau. Jemand bittet Sie, „den zweiten blauen Ball“ zu greifen: Sie verstehen, dass er sich auf den letzten Ball in der Sequenz bezieht, aber ein Chatbot könnte die Anweisung so verstehen, dass er sich auf den zweiten Ball bezieht, der zufällig auch blau ist. „Das ist ein großes Sprachmodell gut Sprache ist übertrieben“, sagt Marcus. Aber für Ivanova erfordert so etwas wie das Blue-Ball-Beispiel nicht nur das Zusammenstellen von Wörtern, sondern auch das Beschwören einer Szene, und als solches „geht es nicht wirklich um die eigentliche Sprache; es geht um sprache verwenden.“

Und egal wie überzeugend ihr Sprachgebrauch ist, es gibt immer noch eine gesunde Debatte darüber, wie viel Programme wie ChatGPT tatsächlich über die Welt „verstehen“, indem sie einfach mit Daten aus Büchern und Wikipedia-Einträgen gefüttert werden. „Bedeutung wird nicht gegeben“, sagt Roxana Girju, Computerlinguistin an der University of Illinois at Urbana-Champaign. „Sinn wird in unseren Interaktionen und Diskussionen ausgehandelt, nicht nur mit anderen Menschen, sondern auch mit der Welt. Es ist etwas, das wir erreichen, wenn wir uns durch Sprache engagieren.“ Wenn das richtig ist, würde der Bau einer wirklich intelligenten Maschine eine andere Art der Kombination von Sprache und Denken erfordern – nicht nur das Schichten verschiedener Algorithmen, sondern das Entwerfen eines Programms, das beispielsweise Sprache lernen und gleichzeitig soziale Beziehungen steuern kann.

Ivanova und Mahowald lehnen die Ansicht, dass Sprache die menschliche Intelligenz verkörpert, nicht direkt ab; sie verkomplizieren es. Menschen sind „gut“ in der Sprache, gerade weil wir Gedanken mit ihrem Ausdruck verbinden. Ein Computer, der sowohl die Regeln der Sprache beherrscht als auch anwenden kann, wird notwendigerweise intelligent sein – die Kehrseite ist, dass die enge Nachahmung menschlicher Äußerungen genau das ist, was Maschinen zurückhält. Aber bevor wir unsere organischen Gehirne nutzen können, um die aus Silizium besser zu verstehen, brauchen wir sowohl neue Ideen als auch neue Wörter, um die Bedeutung der Sprache selbst zu verstehen.


source site

Leave a Reply