registrieren registriertes Mitglied


Anzeige

Anzeige

leere robots.txt und trotzdem gesperrt?

Alles über Google diskutieren wir hier.
DbDdhkP07
PostRank 4
PostRank 4
Beiträge: 192
Registriert: 13.07.2007, 15:07

Beitrag DbDdhkP07 » 28.01.2014, 21:19 leere robots.txt und trotzdem gesperrt?

Tja, ich weiss nicht wirklich weiter und frag einfach mal locker in die Runde.

Seit September ist bei einer Seite (ja, einziges echt statisches HTML-Dokument) einer Präsenz von mir plötzlich der gesamte G-Traffic weggebrochen.

Also: WMT... Aha, manuelles Penalty wegen ausgehenden Links. No Problem, alle spammy wirkenden Links raus oder nofollow und den Gang nach Canossa angetreten.

Relativ schnell wurde Vergebung erteilt. Die Rankings wieder soweit okay, der grüne Balken wieder grün. Schampus... Schampus?
Nein, denn irgendwie gibt es eine Seite, die sich dem Google-Index verweigert. Oder umgekehrt!?

Die Seite ist im Index nicht zu finden, nur bei einer gezielten Site-Abfrage kommt:
Aufgrund der robots.txt dieser Website ist keine Beschreibung für dieses Ergebnis verfügbar.
Komisch: Bei einer Abfrage in den WMT werden keine Probleme gemeldet. Die robots.txt habe ich vor Monaten schon erst entschärft und schliesslich ganz entfernt. Immer mal wieder neu an den Index gesendet... Nix... Nada...
Wie gesagt, es gibt keine robots.txt mehr und die Seite wird auch artigst gecrawlt - meta: index,follow, das isses auch nicht und die canonical-url ist auch exakt gesetzt.

Und nu? Any Ideas?

Anzeige von: