Warum Google SGE in Google Labs feststeckt und wie es weitergeht

Google Search Generative Experience (SGE) sollte als Google Labs-Experiment Ende 2023 auslaufen, seine Zeit als Experiment wurde jedoch stillschweigend verlängert, was deutlich macht, dass SGE in naher Zukunft nicht für die Suche verfügbar sein wird. Überraschenderweise war es möglicherweise der beste, vielleicht unbeabsichtigte Ansatz für Google, Microsoft die Führung zu überlassen.

Googles KI-Strategie für die Suche

Die Entscheidung von Google, SGE als Google Labs-Projekt beizubehalten, passt in den breiteren Trend in der Geschichte von Google, KI lieber im Hintergrund zu integrieren.

Das Vorhandensein von KI ist nicht immer offensichtlich, aber sie ist schon länger ein Teil der Google-Suche im Hintergrund, als den meisten Menschen bewusst ist.

Der allererste Einsatz von KI bei der Suche erfolgte als Teil des Ranking-Algorithmus von Google, einem System namens RankBrain. RankBrain half den Ranking-Algorithmen zu verstehen, wie sich Wörter in Suchanfragen auf Konzepte in der realen Welt beziehen.

Laut Google:

„Als wir RankBrain im Jahr 2015 auf den Markt brachten, war es das erste Deep-Learning-System, das in der Suche eingesetzt wurde. Damals war es bahnbrechend … RankBrain (wie der Name schon sagt) wird verwendet, um das Ranking – oder die beste Reihenfolge – für die Top-Suchergebnisse zu bestimmen.“

Die nächste Implementierung war Neural Matching, das den Algorithmen von Google dabei half, umfassendere Konzepte in Suchanfragen und Webseiten zu verstehen.

Und eines der bekanntesten KI-Systeme, die Google eingeführt hat, ist das Multitask Unified Model, auch bekannt als Google MUM. MUM ist ein multimodales KI-System, das das Verstehen von Bildern und Texten umfasst und in der Lage ist, sie in die Kontexte zu platzieren, wie sie in einem Satz oder einer Suchanfrage geschrieben sind.

SpamBrain, die Spam-Bekämpfungs-KI von Google, ist wahrscheinlich eine der wichtigsten KI-Implementierungen als Teil des Suchalgorithmus von Google, da sie dabei hilft, Websites mit geringer Qualität auszusortieren.

Dies sind alles Beispiele für den Ansatz von Google, KI im Hintergrund zu nutzen, um verschiedene Probleme innerhalb der Suche als Teil des größeren Kernalgorithmus zu lösen.

Es ist wahrscheinlich, dass Google die KI im Hintergrund weiter verwendet hätte, bis die transformatorbasierten Large Language Models (LLMs) in den Vordergrund treten konnten.

Aber die Integration von ChatGPT in Bing durch Microsoft zwang Google dazu, Schritte zu unternehmen, um KI mit seinem Search Generative Experience (SGE) stärker in den Vordergrund zu rücken.

Warum SGE in Google Labs behalten?

Wenn man bedenkt, dass Microsoft ChatGPT in Bing integriert hat, könnte es merkwürdig erscheinen, dass Google keinen ähnlichen Schritt unternommen hat und SGE stattdessen in Google Labs belässt. Es gibt gute Gründe für den Ansatz von Google.

Eines der Leitprinzipien von Google für den Einsatz von KI besteht darin, sie nur dann einzusetzen, wenn sich die Technologie als erfolgreich erwiesen hat und auf eine Art und Weise umgesetzt wird, die vertrauenswürdig und verantwortungsvoll ist. Das sind zwei Dinge, zu denen generative KI heute nicht in der Lage ist.

Bevor KI erfolgreich in den Vordergrund der Suche integriert werden kann, müssen mindestens drei große Probleme gelöst werden:

  1. LLMs können nicht als Informationsabrufsystem verwendet werden, da sie vollständig neu trainiert werden müssen, um neue Daten hinzuzufügen. .
  2. Die Transformatorarchitektur ist ineffizient und kostspielig.
  3. Generative KI neigt dazu, falsche Fakten zu schaffen, ein Phänomen, das als Halluzination bekannt ist.

Warum KI nicht als Suchmaschine eingesetzt werden kann

Eines der wichtigsten Probleme, die gelöst werden müssen, bevor KI als Backend und Frontend einer Suchmaschine verwendet werden kann, besteht darin, dass LLMs nicht als Suchindex fungieren können, dem ständig neue Daten hinzugefügt werden.

Vereinfacht ausgedrückt ist das Hinzufügen neuer Webseiten in einer normalen Suchmaschine ein Vorgang, bei dem die Suchmaschine die semantische Bedeutung der Wörter und Phrasen im Text berechnet (ein Vorgang, der „Einbettung“ genannt wird), wodurch sie durchsuchbar und durchsuchbar werden bereit zur Integration in den Index.

Anschließend muss die Suchmaschine den gesamten Index aktualisieren, um sozusagen zu verstehen, wo die neuen Webseiten in den gesamten Suchindex passen.

Das Hinzufügen neuer Webseiten kann die Art und Weise ändern, wie die Suchmaschine alle anderen ihr bekannten Webseiten versteht und in Beziehung setzt. Daher durchsucht sie alle Webseiten in ihrem Index und aktualisiert bei Bedarf ihre Beziehungen zueinander. Hierbei handelt es sich um eine Vereinfachung, um das allgemeine Verständnis dessen zu vermitteln, was es bedeutet, neue Webseiten zu einem Suchindex hinzuzufügen.

Im Gegensatz zur aktuellen Suchtechnologie können LLMs keine neuen Webseiten zu einem Index hinzufügen, da das Hinzufügen neuer Daten eine vollständige Neuschulung des gesamten LLM erfordert.

Google erforscht, wie dieses Problem gelöst werden kann, um eine transformatorbasierte LLM-Suchmaschine zu erstellen, aber das Problem ist noch nicht einmal annähernd gelöst.

Um zu verstehen, warum dies geschieht, ist es nützlich, einen kurzen Blick auf eine aktuelle Google-Forschungsarbeit zu werfen, die von Marc Najork und Donald Metzler (und mehreren anderen Co-Autoren) gemeinsam verfasst wurde. Ich erwähne ihre Namen, weil diese beiden Forscher fast immer mit einigen der folgenreichsten Forschungsergebnisse von Google in Verbindung gebracht werden. Wenn also einer ihrer Namen darauf steht, ist die Recherche wahrscheinlich sehr wichtig.

In der folgenden Erläuterung wird der Suchindex als Speicher bezeichnet, da ein Suchindex eine Erinnerung an das ist, was indiziert wurde.

Die Forschungsarbeit trägt den Titel: „DSI++: Aktualisierung des Transformer-Speichers mit neuen Dokumenten“ (PDF)

Die Verwendung von LLMs als Suchmaschinen ist ein Prozess, der eine Technologie namens Differentiable Search Indices (DSIs) nutzt. Die aktuelle Suchindextechnologie wird als Dual-Encoder bezeichnet.

Das Forschungspapier erklärt:

„…Die Indexkonstruktion mithilfe eines DSI erfordert das Training eines Transformer-Modells. Daher muss das Modell jedes Mal, wenn der zugrunde liegende Korpus aktualisiert wird, von Grund auf neu trainiert werden, was im Vergleich zu Dual-Encodern unerschwinglich hohe Rechenkosten verursacht.“

In der Arbeit werden weiterhin Wege zur Lösung des Problems von LLMs untersucht, die „vergessen“, aber am Ende der Studie heißt es, dass sie nur Fortschritte in Richtung eines besseren Verständnisses gemacht haben, was in der zukünftigen Forschung gelöst werden muss.

Sie kommen zu dem Schluss:

„In dieser Studie untersuchen wir das Phänomen des Vergessens im Zusammenhang mit der Hinzufügung neuer und unterschiedlicher Dokumente zum Indexer. Es ist wichtig zu beachten, dass das Verhalten des Modells unvorhersehbar wird und eine weitere Analyse erforderlich ist, wenn ein neues Dokument ein zuvor indiziertes Dokument widerlegt oder ändert.

Darüber hinaus untersuchen wir die Wirksamkeit unserer vorgeschlagenen Methode anhand eines größeren Datensatzes, beispielsweise des vollständigen MS MARCO-Datensatzes. Es ist jedoch anzumerken, dass die Methode bei diesem größeren Datensatz ein erhebliches Vergessen aufweist. Daher ist zusätzliche Forschung erforderlich, um die Leistung des Modells zu verbessern, insbesondere beim Umgang mit Datensätzen größeren Maßstabs.“

LLMs können sich nicht selbst überprüfen

Google und viele andere erforschen außerdem mehrere Möglichkeiten, KI-Fakten selbst überprüfen zu lassen, um zu verhindern, dass falsche Informationen (sogenannte Halluzinationen) weitergegeben werden. Bisher macht die Forschung jedoch keine nennenswerten Fortschritte.

Bings Erfahrung mit KI im Vordergrund

Bing ging einen anderen Weg, indem es KI in einem hybriden Ansatz direkt in seine Suchoberfläche integrierte und eine traditionelle Suchmaschine mit einem KI-Frontend verband. Diese neue Art von Suchmaschine hat das Sucherlebnis neu gestaltet und Bing im Wettbewerb um Suchmaschinennutzer differenziert.

Die KI-Integration von Bing sorgte zunächst für großes Aufsehen und zog Benutzer an, die von der Neuheit einer KI-gesteuerten Suchoberfläche fasziniert waren. Dies führte zu einer Steigerung des Benutzerengagements von Bing.

Doch nach fast einem Jahr voller Begeisterung stieg der Marktanteil von Bing nur geringfügig an. Jüngste Berichte, darunter einer vom Boston Globe, deuten darauf hin, dass der Marktanteil seit der Einführung von Bing Chat um weniger als 1 % gewachsen ist.

Die Strategie von Google wird im Nachhinein bestätigt

Bings Erfahrung legt nahe, dass KI im Vordergrund einer Suchmaschine möglicherweise nicht so effektiv ist wie erhofft. Der bescheidene Anstieg des Marktanteils wirft Fragen zur langfristigen Rentabilität einer Chat-basierten Suchmaschine auf und bestätigt Googles vorsichtigen Ansatz, KI im Hintergrund einzusetzen.

Die Fokussierung von Google auf KI im Hintergrund der Suche wird gerechtfertigt, wenn man bedenkt, dass es Bing nicht gelungen ist, Nutzer dazu zu bringen, Google für Bing zu verlassen.

Die Strategie, die KI im Hintergrund zu belassen, wo sie zu diesem Zeitpunkt am besten funktioniert, ermöglichte es Google, die Nutzer zu halten, während die KI-Suchtechnologie in den Google Labs dort reift, wo sie hingehört.

Bings Ansatz, KI im Vordergrund zu nutzen, dient mittlerweile fast als warnendes Beispiel für die Fallstricke, die mit der Markteinführung einer Technologie einhergehen, bevor die Vorteile vollständig verstanden werden, und bietet Einblicke in die Grenzen dieses Ansatzes.

Ironischerweise findet Microsoft bessere Möglichkeiten, KI als Hintergrundtechnologie in Form nützlicher Funktionen zu integrieren, die seinen cloudbasierten Office-Produkten hinzugefügt werden.

Zukunft der KI in der Suche

Der aktuelle Stand der KI-Technologie lässt darauf schließen, dass sie als Werkzeug, das die Funktionen einer Suchmaschine unterstützt, effektiver ist, als als komplettes Back- und Frontend einer Suchmaschine oder sogar als hybrider Ansatz, den Benutzer nicht übernehmen wollen.

Die Strategie von Google, neue Technologien erst dann freizugeben, wenn sie vollständig getestet wurden, erklärt, warum Search Generative Experience in die Google Labs gehört.

Sicherlich wird die KI eine mutigere Rolle bei der Suche spielen, aber dieser Tag ist definitiv nicht heute. Erwarten Sie, dass Google mehr KI-basierte Funktionen in mehr seiner Produkte einfügt, und es ist möglicherweise nicht überraschend, dass auch Microsoft diesen Weg fortsetzt.

Siehe auch: Google SGE und generative KI in der Suche: Was Sie im Jahr 2024 erwartet

Ausgewähltes Bild von Shutterstock/ProStockStudio

source site

Leave a Reply