Seite 1 von 1

Blockierte URLs - Warum?

Verfasst: 23.05.2013, 09:02
von Sandmanyz
Hallo Zusammen,

in den Google Webmaster Tools steht "Blockierte URLs: 6".

Vorab die Geschichte:
Als die Webseite an den Start ging, war noch ein Fehler in der Robots.txt (15.05.2013). Der Fehler hat dafür gesorgt, dass 9 Seiten blockiert wurden. Ich habe die Robots.txt einen Tag später (16.05.2013) sofort wie folgt geändert.

User-agent: *
Disallow:


Die Robots.txt wurde lt. Webmaster Tools am 21.05.2013 (5 Tage nach Änderung) heruntergeladen. Heute (23.05.2013) steht aber immer noch "Blockierte URLs: 6".
Unter dem Menüpunkt "Status >> Blockierte URLs" habe ich alle Seiten der Webseite getestet. Das Ergebnis war immer "Zulässig für Zeile 2 Disallow:"

Nun die Frage:
Zeigt Google Webmaster Tools es nur verzögert an oder habe ich wirklich ein Problem?

MfG

Verfasst:
von

Verfasst: 27.05.2013, 07:33
von Sandmanyz
Hat denn Niemand eine Idee?

Nun wurde die robots.txt am 25.05.2013 erneut heruntergeladen und es steht wieder sechs URL's blockiert. Wenn ich wenigstens wüsste, welche es sind.

Bild


Edit: 10.07.2013
Das Problem hat sich von selbst gelöst. Nach 2 weiteren Wochen warten waren 0 URL's blockiert.

Verfasst: 27.06.2014, 00:33
von jaqqDE
Hi Sandmanzy

wurde das problem behoben?

Verfasst: 27.06.2014, 06:23
von Sandmanyz
Ja, das Problem hat sich von selbst erledigt. Die Webmaster Tools aktualisieren sich einfach extrem langsam. Jedenfalls bzgl. der blockierten URL's. Ich habe das Verhalten nun schon mehrfach festgestellt.
Allerdings immer nur dann, wenn ich eine Webseite erstellt habe und die Crawler zunächst per robots.txt ausgeschlossen habe. Später habe ich die robots.txt angepasst und die Webseite zu den WMT hinzugefügt.