Google zu langsam für sich selbst

web,werkzeuge

Erstellt: 14.03.2021 Lesedauer 1 - 2 Min.

Wenn eine Webseite aktualisiert wird, können sich Seitennamen ändern, Seiten verschwinden oder verschoben sein. Was zu eigenwilligen Effekten in der Google-Konsole führen kann.

In den letzten Wochen wurden einige Seiten auf »OffSiteEdit« umgestellt. Dabei wurden einige Inhalte und deren Adresse im Interesse der „Seitenhygiene“ angepasst oder gelöscht. Darüber wurde Google natürlich zeitnah informiert, indem die alte Sitemap – genauer: die alte Adresse der Sitemap – gelöscht und durch eine neue ersetzt wurde.

Die Search-Konsole hat sich darüber dankbar gezeigt und den Erhalt der neuen Sitemap sowohl als erfolgreich bestätigt, als auch mit dem Hinweis auf Fehlerfreiheit quittiert. Weshalb es um so verwunderlicher ist, wenn ein paar Tage später Hinweise auf „Abdeckungsprobleme“ im Postfach landen. Als mögliches Problem wird eine fehlerhafte robots.txt genannt.

Dort ließ sich jedoch kein Fehler entdecken. Also wurde der angemahnte Link genauer untersucht. Es stellte sich heraus, dass dieser noch aus „alten Zeiten“ stammte. Google hatte zwar die neue Sitemap dankend genommen, doch die alten Daten fliegen offenkundig noch in den Caches und Listen herum, was zwangsläufig zu falschen Kontroll-Versuchen führt.

Bisher hatte ich angenommen, dass Google so pfiffig sei, bei Änderung einer Sitemap einfach alle alten Einträge einer Domain aus den Verzeichnissen zu löschen – was anhand eines eindeutigen Domain-Namens keine allzu große Herausforderung darstellen sollte – um anschließend eine neue Sitemap sauber einzupflegen. Das mit dem Einpflegen klappt offenbar – zumindest wenn die Rückmeldungen stimmen. Das mit dem „sauber“ dauert offenbar deutlich länger. Hier laufen offenbar Services aneinander vorbei, denn die Kontrolle veralteter Adressen ist nur möglich, wenn niemand aufgeräumt hat.

Wer nach dem Aufräumen der eigenen Webseite und korrekter Übergabe seiner Sitemap in die Search-Konsole zeitnah Fehlermeldungen bekommt, können diese daher für eine gewisse Zeit weitestgehend ignoriert werden: Das sind — meistens — keine. Wobei das „meistens“ den Unsicherheitsfaktor beschreibt: Es kann halt doch einer sein. Weshalb eine Kontrolle durchaus geboten ist, jedoch zuerst der Link als solcher überprüft werden sollte, statt irreführenden Fehlermeldungen der Konsole nachzusteigen.