Google darüber, wie der Googlebot mit KI-generierten Inhalten umgeht

Martin Splitt von Google wurde gefragt, wie sich das Crawling und Rendering des Googlebots an die Zunahme von KI-generierten Inhalten anpasst.

Martins Antwort lieferte Einblicke in die Art und Weise, wie Google mit KI-generierten Inhalten umgeht und welche Rolle die Qualitätskontrolle spielt.

Googlebot-Webseiten-Rendering

Beim Rendern einer Webseite wird die Webseite in einem Browser erstellt, indem HTML, Bilder, CSS und JavaScript heruntergeladen und dann alles zu einer Webseite zusammengefügt werden.

Der Crawler von Google, Googlebot, lädt außerdem die HTML-, Bilder-, CSS- und JavaScript-Dateien herunter, um die Webseite zu rendern.

Wie Google mit KI-generierten Inhalten umgeht

Der Kontext von Martins Kommentaren fand in einem Webinar mit dem Titel „Exploring the Art of Rendering with Googles Martin Splitt“ statt, das von Duda produziert wurde.

Einer der Zuhörer stellte die Frage, ob die große Menge an KI-Inhalten einen Einfluss auf die Fähigkeit von Google habe, Seiten zum Zeitpunkt des Crawlings darzustellen.

Martin lieferte eine Erklärung, fügte aber auch Informationen darüber hinzu, wie Google beim Crawlen entscheidet, ob eine Webseite von geringer Qualität ist, und was Google nach einer Feststellung tut.

Ammon Johns stellte die Frage, die von Ulrika Viberg gelesen wurde.

Hier ist die Frage:

„Wir haben also auch eines von Ammon, und darüber wird viel gesprochen.

Ich sehe es oft.

Sie sagten, dass die Produktion von Inhalten durch KI zunehme und das Crawlen und Rendern immer stärker belastet werde.

Ist es wahrscheinlich, dass die Rendering-Prozesse vereinfacht werden müssen?“

Was Ammon offenbar wissen möchte, ist, ob als Reaktion auf die KI-Inhalte spezielle Prozesse ablaufen, um die erhöhte Crawling- und Rendering-Last zu bewältigen.

Martin Splitt antwortete:

„Nein, das glaube ich nicht, denn meine beste Vermutung ist…“

Als nächstes spricht Martin das offensichtliche Problem bei KI-Inhalten an, über das sich SEOs wundern, nämlich die Erkennung.

Martin fuhr fort:

„Wir führen also in mehreren Phasen eine Qualitätserkennung oder Qualitätskontrolle durch, und die meisten beschissenen Inhalte benötigen nicht unbedingt JavaScript, um uns zu zeigen, wie beschissen sie sind.

Wenn wir also schon vorher feststellen, dass es sich um beschissene Inhalte handelt, dann überspringen wir das Rendern. Was bringt das dann?

Wenn wir sehen, okay, das sieht absolut aus. Wir können sehr sicher sein, dass das Mist ist und das JavaScript vielleicht noch mehr Mist hinzufügt, dann tschüss.

Wenn es sich um eine leere Seite handelt, denken wir vielleicht: „Wir wissen es nicht.“

Normalerweise werden hier keine leeren Seiten eingefügt, also versuchen wir es zumindest mit dem Rendern.

Und wenn das Rendern dann Mist zurückkommt, denken wir: Ja, okay, das ist ganz schön Mist.

Das passiert also bereits. Das ist nichts Neues.

KI könnte den Umfang vergrößern, ändert aber nicht viel. Rendering ist hier nicht der Übeltäter.“

Qualitätserkennung gilt für KI

Martin Splitt sagte nicht, dass Google die KI-Erkennung auf den Inhalt anwendet.

Er sagte, dass Google die Qualitätserkennung in mehreren Phasen einsetze.

Das ist sehr interessant, da das Search Engine Journal einen Artikel über einen Qualitätserkennungsalgorithmus veröffentlicht hat, der auch minderwertige KI-Inhalte erkennt.

Der Algorithmus wurde nicht entwickelt, um maschinengenerierte Inhalte von geringer Qualität zu finden. Aber sie stellten fest, dass der Algorithmus es automatisch entdeckte.

Vieles an diesem Algorithmus stimmt mit allem überein, was Google über sein System für hilfreiche Inhalte angekündigt hat, das darauf ausgelegt ist, Inhalte zu identifizieren, die von Menschen geschrieben wurden.

Danny Sullivan schrieb über den Hilfreiche Content-Algorithmus:

„…wir führen eine Reihe von Verbesserungen an der Suche ein, um es den Menschen einfacher zu machen, hilfreiche Inhalte zu finden, die von und für Menschen erstellt wurden.“

Er erwähnte jedoch nicht nur einmal Inhalte, die von Leuten geschrieben wurden. In seinem Artikel, in dem er das System „Hilfreiche Inhalte“ ankündigte, wurde es dreimal erwähnt.

Der Algorithmus wurde entwickelt, um maschinengenerierte Inhalte zu erkennen, die im Allgemeinen jedoch auch Inhalte von geringer Qualität erkennen.

Die Forschungsarbeit trägt den Titel „Generative Models are Unsupervised Predictors of Page Quality: A Colossal-Scale Study“.

Darin beobachten die Forscher:

„Dieses Papier geht davon aus, dass Detektoren, die darauf trainiert sind, zwischen menschlichem und maschinengeschriebenem Text zu unterscheiden, wirksame Prädiktoren für die Sprachqualität von Webseiten sind und einen überwachten Basis-Spam-Klassifikator übertreffen.“

Zurück zu dem, was Martin Splitt gesagt hat:

„…wir führen Qualitätserkennung oder Qualitätskontrolle in mehreren Phasen durch…“

Das passiert also bereits. Das ist nichts Neues.

KI könnte den Umfang vergrößern, ändert aber nicht viel.“

Was Martin zu sagen scheint, ist Folgendes:

  1. Für KI-Inhalte gibt es nichts Neues
  2. Google nutzt die Qualitätserkennung sowohl für menschliche als auch für KI-Inhalte

Sehen Sie sich das Duda-Webinar mit Martin Splitt bei Minute 35:50 an:

Entdecken Sie die Kunst des Renderns mit Martin Splitt von Google

source site

Leave a Reply