Blockierte URLs - Warum?
Verfasst: 23.05.2013, 09:02
Hallo Zusammen,
in den Google Webmaster Tools steht "Blockierte URLs: 6".
Vorab die Geschichte:
Als die Webseite an den Start ging, war noch ein Fehler in der Robots.txt (15.05.2013). Der Fehler hat dafür gesorgt, dass 9 Seiten blockiert wurden. Ich habe die Robots.txt einen Tag später (16.05.2013) sofort wie folgt geändert.
User-agent: *
Disallow:
Die Robots.txt wurde lt. Webmaster Tools am 21.05.2013 (5 Tage nach Änderung) heruntergeladen. Heute (23.05.2013) steht aber immer noch "Blockierte URLs: 6".
Unter dem Menüpunkt "Status >> Blockierte URLs" habe ich alle Seiten der Webseite getestet. Das Ergebnis war immer "Zulässig für Zeile 2 Disallow:"
Nun die Frage:
Zeigt Google Webmaster Tools es nur verzögert an oder habe ich wirklich ein Problem?
MfG
in den Google Webmaster Tools steht "Blockierte URLs: 6".
Vorab die Geschichte:
Als die Webseite an den Start ging, war noch ein Fehler in der Robots.txt (15.05.2013). Der Fehler hat dafür gesorgt, dass 9 Seiten blockiert wurden. Ich habe die Robots.txt einen Tag später (16.05.2013) sofort wie folgt geändert.
User-agent: *
Disallow:
Die Robots.txt wurde lt. Webmaster Tools am 21.05.2013 (5 Tage nach Änderung) heruntergeladen. Heute (23.05.2013) steht aber immer noch "Blockierte URLs: 6".
Unter dem Menüpunkt "Status >> Blockierte URLs" habe ich alle Seiten der Webseite getestet. Das Ergebnis war immer "Zulässig für Zeile 2 Disallow:"
Nun die Frage:
Zeigt Google Webmaster Tools es nur verzögert an oder habe ich wirklich ein Problem?
MfG