registrieren registriertes Mitglied


Anzeige

Anzeige

Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?

Alles zu Domain-Umzug, Weiterleitungen und Robots diskutiert Ihr hier.
nortstern
PostRank 2
PostRank 2
Beiträge: 52
Registriert: 28.07.2014, 14:34

Beitrag nortstern » 23.02.2016, 12:37 Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?

Seit Freitag wird mir in der Search Console gesagt: "Es wurden schwerwiegende Probleme bezüglich des Status Ihrer Property gefunden."

Laut robots.txt-Tester kann der Googlebot nicht auf die Startseite zugreifen, da ich die Zeilen

Disallow: *.sql
Disallow: *.sql.gz

drin hatte.

Verstehe ich das Ganze nicht oder gibt es einen Fehler seitens Google?
Wenn ich es richtig verstanden habe, dann müsste die Startseite ja dann startseite.de.sql (oder so ähnlich) heißen?

Beide Zeilen sind nun gelöscht und zack sagt der Tester, dass wieder alles funktioniert (ich tippe die Fehlermeldung verschwindet mit Zeitverzug).

Kann da einer von euch Licht ins Dunkel bringen und mir meinen (möglichen) Denkfehler aufzeigen?

Anzeige von: