Das Ändern von URLs auf größeren Websites nimmt Zeit in Anspruch

Jemand auf Reddit hat eine Frage zu einer Website-weiten Änderung des Codes für eine Website mit zehn Sprachen gestellt. John Mueller von Google gab allgemeine Ratschläge zu den Fallstricken von Website-weiten Änderungen und sprach über die Komplexität (was den Wert der Einfachheit implizierte).

Die Frage bezog sich auf Hreflang, aber Muellers Antwort hatte, da sie allgemeiner Natur war, einen größeren Wert für SEO.

Hier ist die Frage, die gestellt wurde:

„Ich arbeite an einer Website, die 10 Sprachen und 20 Kulturcodes enthält. Nehmen wir an, blog-abc wurde in allen Sprachen veröffentlicht. Die Hreflang-Tags in allen Sprachen verweisen auf die Blog-ABC-Version basierend auf der Sprache. Für en könnte es en/blog-abc sein

Sie haben die Version in englischer Sprache aktualisiert und die URL auf blog-def aktualisiert. Der hreflang-Tag auf der englischen Blogseite für en wird auf en/blog-def aktualisiert. Dies wird jedoch nicht dynamisch im Quellcode anderer Sprachen aktualisiert. Sie verweisen weiterhin auf en/blog-abc. Um Hreflang-Tags in anderen Sprachen zu aktualisieren, müssen wir sie ebenfalls erneut veröffentlichen.

Da wir versuchen, die Seiten so statisch wie möglich zu gestalten, ist es möglicherweise keine Option, Hreflang-Tags dynamisch zu aktualisieren. Wir haben die Möglichkeit, die Hreflang-Tags entweder regelmäßig zu aktualisieren (z. B. einmal im Monat) oder die Hreflang-Tags in die Sitemap zu verschieben.

Wenn Sie glauben, dass es eine andere Option gibt, wird das auch hilfreich sein.“

Die Bearbeitung von Site-weiten Änderungen dauert lange

Kürzlich habe ich in einer Forschungsarbeit etwas Interessantes gelesen, das mich an die Aussage von John Mueller erinnerte, dass Google Zeit braucht, um zu verstehen, dass aktualisierte Seiten mit dem Rest des Internets zusammenhängen.

In der Forschungsarbeit wurde erwähnt, dass bei aktualisierten Webseiten die semantischen Bedeutungen der Webseiten (die Einbettungen) neu berechnet werden mussten und dies dann für die restlichen Dokumente durchgeführt werden musste.

Im Forschungsbericht (PDF) heißt es nebenbei zum Hinzufügen neuer Seiten zu einem Suchindex:

„Stellen Sie sich das realistische Szenario vor, in dem dem indizierten Korpus ständig neue Dokumente hinzugefügt werden. Die Aktualisierung des Index bei Dual-Encoder-basierten Methoden erfordert die Berechnung von Einbettungen für neue Dokumente und anschließend die Neuindizierung aller Dokumenteinbettungen.

Im Gegensatz dazu beinhaltet die Indexkonstruktion mithilfe eines DSI das Training eines Transformer-Modells. Daher muss das Modell jedes Mal, wenn der zugrunde liegende Korpus aktualisiert wird, von Grund auf neu trainiert werden, was im Vergleich zu Dual-Encodern unerschwinglich hohe Rechenkosten verursacht.“

Ich erwähne diese Passage, weil John Mueller im Jahr 2021 sagte, dass Google Monate brauchen kann, um die Qualität und Relevanz einer Website zu beurteilen, und erwähnte, wie Google versucht zu verstehen, wie eine Website in den Rest des Webs passt.

Hier ist, was er im Jahr 2021 sagte:

„Ich denke, es ist viel schwieriger, wenn es um Qualität im Allgemeinen geht, da es nicht ganz einfach ist, die Gesamtqualität und Relevanz einer Website zu beurteilen.

Wir brauchen viel Zeit, um zu verstehen, wie eine Website in den Rest des Internets passt.

Und es kann leicht, ich weiß nicht, ein paar Monate, ein halbes Jahr, manchmal sogar länger als ein halbes Jahr dauern, bis wir wesentliche Veränderungen in der Gesamtqualität der Website erkennen.

Denn wir achten im Wesentlichen darauf, wie sich diese Website in den Kontext des gesamten Webs einfügt, und das nimmt einfach viel Zeit in Anspruch.

Ich würde also sagen, dass es im Vergleich zu technischen Problemen viel länger dauert, bis die Dinge in dieser Hinsicht aktualisiert werden.“

Der Teil über die Beurteilung, wie eine Website in den Kontext des gesamten Webs passt, ist eine merkwürdige und ungewöhnliche Aussage.

Was er über die Einpassung in den Kontext des gesamten Webs sagte, klang überraschend ähnlich wie das, was in der Forschungsarbeit darüber gesagt wurde, wie der Suchindex „erfordert die Berechnung von Einbettungen für neue Dokumente und die anschließende Neuindizierung aller Dokumenteinbettungen.“

Hier ist die Antwort von John Mueller auf Reddit zum Problem bei der Aktualisierung vieler URLs:

„Im Allgemeinen wird die Verarbeitung von URL-Änderungen auf einer größeren Website einige Zeit in Anspruch nehmen (weshalb ich gerne stabile URLs empfehle … Jemand hat einmal gesagt, dass sich coole URLs nicht ändern; ich glaube nicht, dass damit SEO gemeint ist, sondern auch für SEO). Ich glaube nicht, dass einer dieser Ansätze das wesentlich ändern würde.“

Was meint Mueller, wenn er sagt, dass große Veränderungen Zeit brauchen, um verarbeitet zu werden? Es könnte ähnlich sein wie das, was er 2021 über die erneute Bewertung der Website hinsichtlich Qualität und Relevanz gesagt hat. Dieser Relevanzteil könnte auch dem ähneln, was in der Forschungsarbeit über die Berechnung von Einbettungen gesagt wurde, was sich auf die Erstellung von Vektordarstellungen der Wörter auf einer Webseite als Teil des Verständnisses der semantischen Bedeutung bezieht.

Siehe auch: Vektorsuche: Optimierung für den menschlichen Geist durch maschinelles Lernen

Komplexität hat langfristige Kosten

John Mueller fuhr mit seiner Antwort fort:

„Eine eher metaphysische Frage könnte sein, ob Sie mit diesem etwas komplexen Setup genug Ergebnisse sehen, um es überhaupt zu lohnen, Zeit damit zu verbringen, es so aufrechtzuerhalten, ob Sie das Hreflang-Setup aufgeben könnten oder ob Sie sogar die Länderversionen aufgeben und sogar vereinfachen könnten mehr.

Komplexität schafft nicht immer einen Mehrwert und ist langfristig mit Kosten verbunden.“

Seit über zwanzig Jahren beschäftige ich mich damit, Websites so einfach wie möglich zu gestalten. Müller hat Recht. Es macht Aktualisierungen und Umgestaltungen viel einfacher.

Ausgewähltes Bild von Shutterstock/hvostik

source site

Leave a Reply