Seite 1 von 1

Zwei gleiche Robots.txt mit unterschiedlichen Auswirkungen

Verfasst: 12.04.2014, 18:04
von Lissy
Hallo,
ich habe zwei Drupal-Installationen mit umfangreichen Webseiten (Produktkatalogen), die relativ ähnlich aufgebaut sind.

Bei beiden verwende ich die mit gelieferte robots.txt, deren Einstellungen mit auch sehr sinnvoll erscheint.

Dissallowed sind die verschiedenen Admin-Links, Registrierungsseiten und die Installations und Updates-Seiten im Hauptverzeichnis.

Bei der einen Webseite sind von über 10000 Seiten 6000 angeblich durch robots.txt blockiert (steht in den Webmaster-Tools von Google).

Bei der anderen Webseite sind 25.231 Seiten im Index und nur 1.889 Seiten geblockt.

Kann man irgendwo einsehen, wie die 6000 Seiten aussehen, die angeblich gebockt sind?

Verfasst:
von

Verfasst: 13.04.2014, 16:09
von Malte Landwehr
Crawl > Crawl Errors > "Blocked / Access Denied"

Verfasst: 13.04.2014, 19:03
von Lissy
Hmmm...da werde ich einfach nicht schlau draus.
Da wird mir angeboten, Einstellungen in der robots.txt zu testen.
Ich dachte, ich kann hier versuchsweise die Regeln raus nehmen und schauen, welche die Einschränkung bewirkt.
Das ist aber nicht der Fall.
Selbst wenn ich alle Regeln entferne und teste, wird mir noch angezeigt, daß 6.225 URL's blockiert werden.