Googles John Mueller Q&A: 4 SEO-Fragen beantwortet

John Mueller von Google beantwortet vier schnelle Fragen zu häufigen technischen SEO-Problemen, auf die fast jeder irgendwann stößt.

Mueller beantwortet Fragen von Personen zu folgenden Themen:

  • CSS-Dateien blockieren
  • Aktualisieren von Sitemaps
  • Erneutes Hochladen einer Website ins Web
  • Crawl-Budget des Googlebots

Diese Fragen werden in der neuesten Ausgabe der Ask Googlebot-Videoreihe auf YouTube beantwortet.

Traditionell konzentrieren sich diese Videos darauf, eine bestimmte Frage mit so vielen Details zu beantworten, wie Google bereitstellen kann.

Werbung

Weiter unten lesen

Allerdings braucht nicht jede Frage zu SEO ein ganzes Video, um sie zu beantworten. Einige lassen sich in ein oder zwei Sätzen beantworten.

Hier sind einige schnelle Antworten auf Fragen, die häufig von Leuten gestellt werden, die gerade erst mit SEO anfangen.

Kann das Blockieren von CSS-Dateien in Robots.txt Rankings beeinflussen?

Ja, das Blockieren von CSS kann Probleme verursachen, und Mueller sagt, dass Sie dies vermeiden sollten.

Wenn CSS in der robots.txt-Datei blockiert ist, kann der Googlebot eine Seite nicht so rendern, wie Besucher sie sehen würden.

Die vollständige Anzeige einer Seite hilft Google, sie besser zu verstehen und zu bestätigen, dass sie für Mobilgeräte geeignet ist.

Werbung

Weiter unten lesen

Das alles trägt zum Ranking einer Webseite in den Suchergebnissen bei.

Wie sollte ich die Sitemap für meine Website aktualisieren?

Es gibt keine gemeinsame einfache Lösung zum Aktualisieren von Sitemaps, die auf allen Websites funktioniert, sagt Mueller.

Die meisten Website-Setups verfügen jedoch über eigene integrierte Lösungen.

In den Hilfehandbüchern Ihrer Site finden Sie eine Sitemap-Einstellung oder ein kompatibles Plug-in, das Sitemap-Dateien erstellt.

Normalerweise müssen Sie nur eine Einstellung aktivieren, und Sie sind fertig.

Was ist der richtige Weg, um eine Website wieder bei Google einzuführen?

Es ist nicht möglich, die Indexierung für eine Website zurückzusetzen, indem Sie deren Dateien löschen und sie erneut hochladen.

Google konzentriert sich automatisch auf die neueste Version einer Website und verwirft die alte Version im Laufe der Zeit.

Werbung

Weiter unten lesen

Sie können diesen Prozess schneller vorantreiben, indem Sie Weiterleitungen von alten URLs zu den neuen verwenden.

Würde das Löschen von RSS-Feeds das Crawling des Googlebot verbessern?

Eine Person schreibt an Mueller, dass 25 % des Crawling-Budgets des Googlebots an die RSS-Feed-URLs gehen, die sich im Kopf jeder Seite befinden.

Werbung

Weiter unten lesen

Sie fragen, ob das Löschen der RSS-Feeds das Crawling verbessern würde.

Laut Mueller sind die RSS-Feeds unproblematisch und die Google-Systeme gleichen das Crawlen einer Website automatisch aus.

Dies führt manchmal dazu, dass Google bestimmte Seiten häufiger crawlt, aber Seiten werden erst dann erneut gecrawlt, wenn der Googlebot alle wichtigen Seiten mindestens einmal gesehen hat.

Werbung

Weiter unten lesen


Empfohlenes Bild: Screenshot von YouTube.com/GoogleSearchCentral


source site

Leave a Reply