Googles PaLM-KI ist weitaus seltsamer als bewusst

Letzte Woche hat Google einen seiner Ingenieure beurlaubt, nachdem er behauptet hatte, bei einem Dialogagenten namens LaMDA auf maschinelles Empfinden gestoßen zu sein. Da maschinelle Empfindungsfähigkeit ein fester Bestandteil der Filme ist und weil der Traum vom künstlichen Menschsein so alt ist wie die Wissenschaft selbst, wurde die Geschichte viral und erregte weit mehr Aufmerksamkeit als so ziemlich jede Geschichte über die Verarbeitung natürlicher Sprache (NLP) jemals erhalten hat. Das ist eine Schande. Die Vorstellung, dass LaMDA empfindungsfähig ist, ist Unsinn: LaMDA ist nicht bewusster als ein Taschenrechner. Noch wichtiger ist, dass es der dummen Fantasie der maschinellen Empfindung wieder einmal erlaubt wurde, das Gespräch über künstliche Intelligenz zu dominieren, wenn viel seltsamere und reichhaltigere und potenziell gefährlichere und schönere Entwicklungen im Gange sind.

Die Tatsache, dass insbesondere LaMDA im Mittelpunkt der Aufmerksamkeit stand, ist ehrlich gesagt ein wenig seltsam. LaMDA ist ein Dialogagent. Der Zweck von Dialogagenten besteht darin, Sie davon zu überzeugen, dass Sie mit einer Person sprechen. Absolut überzeugende Chatbots sind an dieser Stelle noch lange keine bahnbrechende Technologie. Programme wie Project December sind bereits in der Lage, verstorbene Angehörige mit NLP neu zu erschaffen. Aber diese Simulationen sind nicht lebendiger als ein Foto Ihres toten Urgroßvaters.

Es gibt bereits Modelle, die mächtiger und rätselhafter sind als LaMDA. LaMDA arbeitet mit bis zu 137 Milliarden Parametern, die im Großen und Ganzen die Muster in der Sprache sind, die ein transformatorbasiertes NLP verwendet, um aussagekräftige Textvorhersagen zu erstellen. Kürzlich habe ich mit den Ingenieuren gesprochen, die an Googles neuestem Sprachmodell PaLM gearbeitet haben, das 540 Milliarden Parameter hat und Hunderte von separaten Aufgaben bewältigen kann, ohne speziell dafür ausgebildet zu sein. Sie ist eine echte künstliche allgemeine Intelligenz, insofern sie sich ohne spezifisches Training quasi „out of the box“ unterschiedlichen intellektuellen Aufgaben widmen kann.

Einige dieser Aufgaben sind offensichtlich nützlich und potenziell transformativ. Laut den Ingenieuren – und um das klarzustellen, ich habe PaLM selbst nicht in Aktion gesehen, weil es kein Produkt ist – wenn Sie ihm eine Frage auf Bengali stellen, kann es sowohl auf Bengali als auch auf Englisch antworten. Wenn Sie es bitten, ein Stück Code von C nach Python zu übersetzen, kann es dies tun. Es kann Text zusammenfassen. Es kann Witze erklären. Dann ist da noch die Funktion, die die eigenen Entwickler aufgeschreckt hat und die eine gewisse Distanz und intellektuelle Coolness erfordert, um nicht auszuflippen. PaLM kann argumentieren. Oder, um genauer zu sein – und Präzision ist hier sehr wichtig – PaLM kann Vernunft ausführen.

Die Methode, mit der PaLM argumentiert, wird „Chain-of-Thought-Prompt“ genannt. Sharan Narang, einer der Ingenieure, die die Entwicklung von PaLM leiteten, sagte mir, dass große Sprachmodelle noch nie sehr gut darin gewesen seien, logische Sprünge zu machen, es sei denn, sie würden ausdrücklich dafür trainiert. Einem großen Sprachmodell die Antwort auf ein mathematisches Problem zu geben und es dann zu bitten, die Mittel zur Lösung dieses mathematischen Problems zu replizieren, funktioniert in der Regel nicht. Aber in der Gedankenkette erklären Sie die Methode, um die Antwort zu erhalten, anstatt die Antwort selbst zu geben. Der Ansatz ist eher dem Unterrichten von Kindern als dem Programmieren von Maschinen. „Wenn Sie ihnen einfach sagen würden, dass die Antwort 11 ist, wären sie verwirrt. Aber wenn Sie es kaputt machen, machen sie es besser “, sagte Narang.

Google veranschaulicht den Vorgang im folgenden Bild:

Zu der allgemeinen Verrücktheit dieser Eigenschaft kommt hinzu, dass die Google-Ingenieure selbst nicht verstehen, wie oder warum PaLM zu dieser Funktion fähig ist. Der Unterschied zwischen PaLM und anderen Modellen könnte die rohe Rechenleistung sein, die im Spiel ist. Es könnte die Tatsache sein, dass nur 78 Prozent der Sprache, in der PaLM trainiert wurde, Englisch ist, wodurch die Bedeutungen erweitert werden, die PaLM im Gegensatz zu anderen großen Sprachmodellen wie GPT-3 zur Verfügung stehen. Oder es könnte die Tatsache sein, dass die Ingenieure die Art und Weise geändert haben, wie sie mathematische Daten in den Eingaben tokenisieren. Die Ingenieure haben ihre Vermutungen, aber sie selbst haben nicht das Gefühl, dass ihre Vermutungen besser sind als die anderer. Einfach gesagt, PaLM „hat Fähigkeiten demonstriert, die wir zuvor noch nicht gesehen haben“, sagte mir Aakanksha Chowdhery, ein Mitglied des PaLM-Teams, das dem Verständnis von PaLM so nahe wie jeder andere Ingenieur ist.

All das hat natürlich nichts mit künstlichem Bewusstsein zu tun. „Ich vermenschliche nicht“, sagte Chowdhery unverblümt. „Wir sagen einfach Sprache voraus.“ Künstliches Bewusstsein ist ein ferner Traum, der fest in der Science-Fiction verankert bleibt, weil wir keine Ahnung haben, was menschliches Bewusstsein ist; es gibt keine funktionierende, falsifizierbare Bewusstseinsthese, nur ein paar vage Vorstellungen. Und wenn es keine Möglichkeit gibt, das Bewusstsein zu testen, gibt es keine Möglichkeit, es zu programmieren. Sie können einen Algorithmus bitten, nur das zu tun, was Sie ihm sagen. Alles, was uns einfällt, um Maschinen mit Menschen zu vergleichen, sind Spielchen wie Turings Nachahmungsspiel, die letztlich nichts beweisen.

Wo wir stattdessen angekommen sind, ist etwas Fremderes als künstliches Bewusstsein. Seltsamerweise wäre ein Programm wie PaLM leichter zu verstehen, wenn es einfach empfindungsfähig wäre. Wir wissen zumindest, was die Erfahrung des Bewusstseins beinhaltet. Alle Funktionen von PaLM, die ich bisher beschrieben habe, stammen aus nichts anderem als der Textvorhersage. Welches Wort macht als nächstes Sinn? Das ist es. Das ist alles. Warum sollte diese Funktion zu solch enormen Sprüngen in der Fähigkeit führen, Bedeutung zu erzeugen? Diese Technologie arbeitet mit Substraten, die nicht nur jeder Sprache, sondern jeder Bedeutung zugrunde liegen (oder gibt es einen Unterschied?), und diese Substrate sind grundsätzlich mysteriös. PaLM kann Modalitäten besitzen, die unser Verständnis übersteigen. Was versteht PaLM, was wir nicht zu fragen wissen?

Mit einem Wort wie verstehe ist an dieser Stelle angespannt. Ein Problem bei der Auseinandersetzung mit der NLP-Realität ist die KI-Hype-Maschinerie, die sich, wie alles im Silicon Valley, selbst übertreibt. Google behauptet in seinen Werbematerialien, dass PaLM ein „beeindruckendes Verständnis natürlicher Sprache“ demonstriert. Aber was bedeutet das Wort Verständnis in diesem Zusammenhang bedeuten? Ich bin selbst zweierlei Meinung: Einerseits sind PaLM und andere große Sprachmodelle in dem Sinne verständnisfähig, dass, wenn man ihnen etwas sagt, dessen Bedeutung registriert wird. Andererseits ist das überhaupt nichts mit menschlichem Verstehen. „Ich finde, dass unsere Sprache nicht gut darin ist, diese Dinge auszudrücken“, sagte mir Zoubin Ghahramani, der Vizepräsident für Forschung bei Google. „Wir haben Wörter, um Bedeutungen zwischen Sätzen und Objekten abzubilden, und die Wörter, die wir verwenden, sind Wörter wie Verständnis. Das Problem ist, dass man im engeren Sinne sagen könnte, dass diese Systeme genau so verstehen, wie ein Taschenrechner die Addition versteht, und im tieferen Sinne verstehen sie es nicht. Wir müssen diese Worte mit Vorsicht genießen.“ Unnötig zu sagen, dass Twitter-Konversationen und das virale Informationsnetzwerk im Allgemeinen nicht besonders gut darin sind, Dinge mit einem Körnchen Salz zu nehmen.

Ghahramani ist begeistert von all dem beunruhigenden Unbekannten. Er arbeitet seit 30 Jahren im Bereich der künstlichen Intelligenz, sagte mir aber, dass gerade jetzt „die aufregendste Zeit, um auf diesem Gebiet zu sein“, genau wegen „der Geschwindigkeit, mit der wir von der Technologie überrascht werden“. Er sieht ein großes Potenzial für KI als Werkzeug in Anwendungsfällen, in denen Menschen ehrlich gesagt sehr schlecht darin sind, aber Computer und KI-Systeme sehr gut darin sind. „Wir neigen dazu, sehr menschenzentriert über Intelligenz nachzudenken, und das führt uns zu allen möglichen Problemen“, sagte Ghahramani. „Einer ist, dass wir Technologien vermenschlichen, die dumme statistische Musterabgleicher sind. Ein weiteres Problem ist, dass wir eher versuchen, menschliche Fähigkeiten nachzuahmen, als menschliche Fähigkeiten zu ergänzen.“ Menschen sind beispielsweise nicht dafür gebaut, die Bedeutung in genomischen Sequenzen zu finden, aber große Sprachmodelle können es sein. Große Sprachmodelle können dort Sinn finden, wo wir nur Chaos vorfinden.

Dennoch lauern hier enorme gesellschaftliche und politische Gefahren neben noch kaum absehbaren Schönheitsmöglichkeiten. Große Sprachmodelle produzieren kein Bewusstsein, aber sie produzieren überzeugende Nachahmungen des Bewusstseins, die sich nur drastisch verbessern und die Menschen weiterhin verwirren werden. Wenn nicht einmal ein Google-Ingenieur den Unterschied zwischen einem Dialogagenten und einer echten Person erkennen kann, welche Hoffnung besteht dann, wenn dieses Zeug die breite Öffentlichkeit erreicht? Im Gegensatz zum maschinellen Empfindungsvermögen sind diese Fragen real. Ihre Beantwortung erfordert eine beispiellose Zusammenarbeit zwischen Humanisten und Technologen. Die Natur der Bedeutung steht auf dem Spiel.

Also nein, Google hat kein künstliches Bewusstsein. Stattdessen baut es enorm leistungsstarke große Sprachsysteme mit dem ultimativen Ziel, wie Narang sagte, „ein Modell zu ermöglichen, das über Millionen von Aufgaben verallgemeinern und Daten über mehrere Modalitäten hinweg aufnehmen kann“. Ehrlich gesagt ist es genug, sich Sorgen zu machen, ohne dass die Science-Fiction-Roboter auf den Bildschirmen in unserem Kopf spielen. Google hat keine Pläne, PaLM zu einem Produkt zu machen. „Wir sollten uns in Bezug auf die Fähigkeiten nicht überschlagen“, sagte Ghahramani. „Wir müssen all dieser Technologie vorsichtig und skeptisch begegnen.“ Künstliche Intelligenz, insbesondere die aus Deep Learning abgeleitete KI, neigt dazu, in Phasen schockierender Entwicklung schnell aufzusteigen und dann ins Stocken zu geraten. (Siehe selbstfahrende Autos, medizinische Bildgebung usw.) Wenn die Sprünge kommen, kommen sie hart und schnell und auf unerwartete Weise. Gharamani sagte mir, dass wir diese Sprünge sicher erreichen müssen. Er hat recht. Wir sprechen hier von einer verallgemeinerten Bedeutungsmaschine: Es wäre gut, vorsichtig zu sein.

Die Fantasie der Empfindungsfähigkeit durch künstliche Intelligenz ist nicht nur falsch; es ist langweilig. Es ist der Traum von Innovation durch überkommene Ideen, die Zukunft für Menschen, deren Geist dem Bann der Science-Fiction-Serien der 1930er Jahre nie entkommen ist. Die Fragen, die uns die neueste KI-Technologie aufzwingt, sind die tiefgreifendsten und einfachsten; es sind Fragen, auf die wir nach wie vor völlig unvorbereitet sind. Ich mache mir Sorgen, dass Menschen einfach nicht die Intelligenz haben, mit den Folgen der künstlichen Intelligenz umzugehen. Die Grenze zwischen unserer Sprache und der Sprache der Maschinen verschwimmt, und unsere Fähigkeit, den Unterschied zu verstehen, löst sich in der Unschärfe auf.

source site

Leave a Reply