Die Chatbots von Bing und Google werden Sie enttäuschen

Letzte Woche gaben sowohl Microsoft als auch Google bekannt, dass sie KI-Programme ähnlich wie ChatGPT in ihre Suchmaschinen integrieren würden – Angebote, um die Art und Weise, wie wir Informationen online finden, in eine Konversation mit einem allwissenden Chatbot umzuwandeln. Ein Problem: Diese Sprachmodelle sind notorische Mythomanen.

In einem Werbevideo machte Googles Bard-Chatbot einen eklatanten Fehler in Bezug auf Astronomie – eine Fehlangabe um weit über ein Jahrzehnt, als das erste Foto eines Planeten außerhalb unseres Sonnensystems aufgenommen wurde –, was dazu führte, dass die Aktien der Muttergesellschaft um bis zu 9 Prozent einbrachen. Die Live-Demo des neuen Bing, das eine fortgeschrittenere Version von ChatGPT enthält, war ebenfalls voller peinlicher Ungenauigkeiten. Auch wenn die letzten Monate viele glauben ließen, dass künstliche Intelligenz ihrem Namen endlich alle Ehre macht, deuten grundlegende Grenzen dieser Technologie darauf hin, dass die Ankündigungen dieses Monats tatsächlich irgendwo zwischen der Google Glass-Kernschmelze und einem iPhone-Update liegen könnten – im schlimmsten Fall Science-Fiction Hype, bestenfalls eine inkrementelle Verbesserung, begleitet von einem Strudel von Bugs.

Das Problem entsteht, wenn wir Chatbots nicht gleich behandeln suchen Bots, sondern so etwas wie ein Gehirn – wenn Unternehmen und Benutzer Programmen wie ChatGPT vertrauen, um ihre Finanzen zu analysieren, Reisen und Mahlzeiten zu planen oder auch nur grundlegende Informationen bereitzustellen. Anstatt Benutzer zu zwingen, andere Internetseiten zu lesen, haben Microsoft und Google eine Zukunft vorgeschlagen, in der Suchmaschinen KI verwenden, um Informationen zu synthetisieren und sie in einfache Prosa zu verpacken, wie Silizium-Orakel. Aber die vollständige Verwirklichung dieser Vision könnte ein weit entferntes Ziel sein, und der Weg dorthin ist kurvenreich und getrübt: Die Programme, die derzeit diesen Wandel vorantreiben, bekannt als „große Sprachmodelle“, sind anständig darin, einfache Sätze zu generieren, aber bei allem anderen ziemlich schrecklich.

Diese Modelle funktionieren, indem sie Muster in der Sprache identifizieren und nachahmen, wie eine superstarke Autokorrektur. Software wie ChatGPT analysiert zunächst riesige Textmengen – Bücher, Wikipedia-Seiten, Zeitungen, Beiträge in sozialen Medien – und verwendet diese Daten dann, um vorherzusagen, welche Wörter und Sätze am wahrscheinlichsten zusammenpassen. Diese Programme Modell vorhandene Sprache, was bedeutet, dass sie nicht auf „neue“ Ideen kommen können. Und weil sie sich auf statistische Regelmäßigkeiten verlassen, neigen sie dazu, verbilligte, entwertete Versionen der Originalinformationen zu produzieren – so etwas wie eine fehlerhafte Xerox-Kopie, wie es sich der Schriftsteller Ted Chiang vorstellt.

Und selbst Wenn ChatGPT und seine Cousins ​​hatten gelernt, Wörter perfekt vorherzusagen, ihnen würden noch andere grundlegende Fähigkeiten fehlen. Zum Beispiel verstehen sie die physische Welt nicht oder wissen nicht, wie man Logik anwendet, sind schlecht in Mathe und, was am relevantesten für die Suche im Internet ist, können sich nicht selbst überprüfen. Erst gestern teilte mir ChatGPT mit, dass sein Name aus sechs Buchstaben besteht.

Diese Sprachprogramme schreiben einige „neue“ Dinge – sie werden „Halluzinationen“ genannt, aber man könnte sie auch so beschreiben Lügen. Ähnlich wie die Autokorrektur sich schrecklich duckt, wenn es darum geht, einzelne Buchstaben richtig zu machen, bringen diese Modelle ganze Sätze und Absätze durcheinander. Das neue Bing sagte Berichten zufolge, dass 2022 nach 2023 kommt, und gab dann an, dass das aktuelle Jahr 2022 ist, während es die Benutzer mit Gaslicht versorgte, wenn sie damit argumentierten; ChatGPT ist dafür bekannt, Statistiken aus erfundenen Quellen zu beschwören. Bing erfand Persönlichkeitsmerkmale über den Politologen Rumman Chowdhury und beschäftigte sich mit reichlich gruseligen, geschlechtsspezifische Spekulation über ihr Privatleben. Der Journalist Mark Hachman, der versuchte, seinem Sohn zu zeigen, wie das neue Bing über Antibias-Filter verfügt, veranlasste stattdessen die KI, seinem jüngsten Kind eine abscheuliche Menge ethnischer Beleidigungen beizubringen (Microsoft sagte, es seien „sofortige Maßnahmen erforderlich …, um dieses Problem anzugehen“).

Auf diese Probleme angesprochen, schrieb ein Microsoft-Sprecher in einer E-Mail: „Angesichts der Tatsache, dass dies eine frühe Vorschau ist, [the new Bing] kann manchmal unerwartete oder ungenaue Antworten zeigen“ und dass „wir seine Antworten anpassen, um kohärente, relevante und positive Antworten zu erhalten“. Und ein Google-Sprecher sagte mir per E-Mail: „Testen und Feedback von Google-Mitarbeitern und externen vertrauenswürdigen Testern sind wichtige Aspekte bei der Verbesserung von Bard, um sicherzustellen, dass es für unsere Nutzer bereit ist.“

Mit anderen Worten, die Schöpfer wissen, dass die neuen Bing und Bard sind nicht bereit für die Welt, trotz der Produktankündigungen und des daraus resultierenden Hype-Zyklus. Die Suchwerkzeuge im Chatbot-Stil bieten zwar Fußnoten, eine vage Geste in Richtung Verantwortlichkeit – aber wenn der Hauptpuffer der KI gegen Fehlinformationen eine jahrhundertealte Zitierpraxis ist, dann unterscheidet sich diese „Revolution“ nicht wesentlich von einem Wikipedia-Eintrag.

Wenn die Pannen – und die offene Feindseligkeit – nicht ausreichen, um Sie innezuhalten, bedenken Sie, dass das Training einer KI enorme Datenmengen und Zeit in Anspruch nimmt. ChatGPT zum Beispiel hat nach 2021 nichts trainiert (und hat daher keine Kenntnis davon), und die Aktualisierung eines Modells mit minütlichen Nachrichten wäre unpraktisch, wenn nicht unmöglich. Um aktuellere Informationen bereitzustellen – beispielsweise über aktuelle Nachrichten oder bevorstehende Sportereignisse – führt das neue Bing Berichten zufolge eine Benutzeranfrage über die traditionelle Bing-Suchmaschine aus und verwendet diese Ergebnisse in Verbindung mit der KI, um eine Antwort zu schreiben. Es klingt wie eine russische Puppe oder vielleicht eine vergoldete Statue: Unter der äußeren, glitzernden KI-Schicht befindet sich das gleiche angeschlagene Bing, das wir alle kennen und nie benutzen.

Der Vorbehalt bei all dieser Skepsis ist, dass Microsoft und Google nicht viel darüber gesagt haben, wie diese KI-gestützten Suchwerkzeuge wirklich funktionieren. Vielleicht integrieren sie eine andere Software, um die Zuverlässigkeit der Chatbots zu verbessern, oder vielleicht löst die nächste Iteration des OpenAI-Sprachmodells, GPT-4, diese Bedenken auf magische Weise, wenn sich (unglaubliche) Gerüchte als wahr erweisen. Aber aktuelle Beweise deuten auf etwas anderes hin, und in Bezug auf die Vorstellung, dass GPT-4 sich so etwas wie menschliche Intelligenz nähern könnte, sagte der CEO von OpenAI: „Die Leute bitten darum, enttäuscht zu werden, und sie werden es sein.“

Tatsächlich fordern zwei der größten Unternehmen der Welt die Öffentlichkeit auf, Vertrauen zu haben – ihnen zu vertrauen, als wären sie Götter und Chatbots ihr Medium, wie Apollo, der durch eine Priesterin in Delphi spricht. Diese KI-Suchbots werden bald für jeden verfügbar sein, aber wir sollten nicht so schnell darauf vertrauen, dass verherrlichte Autokorrekturen unser Leben bestimmen. Vor weniger als einem Jahrzehnt erkannte die Welt, dass Facebook weniger ein unterhaltsames soziales Netzwerk als vielmehr eine die Demokratie untergrabende Maschine war. Wenn wir dem Next Big Thing der Tech-Giganten immer noch überstürzt vertrauen, dann hat vielleicht schon die Halluzination, mit oder ohne Chatbots, die Suche nach Informationen und das Nachdenken verdrängt.


source site

Leave a Reply