Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?
Verfasst: 23.02.2016, 12:37
Seit Freitag wird mir in der Search Console gesagt: "Es wurden schwerwiegende Probleme bezüglich des Status Ihrer Property gefunden."
Laut robots.txt-Tester kann der Googlebot nicht auf die Startseite zugreifen, da ich die Zeilen
Disallow: *.sql
Disallow: *.sql.gz
drin hatte.
Verstehe ich das Ganze nicht oder gibt es einen Fehler seitens Google?
Wenn ich es richtig verstanden habe, dann müsste die Startseite ja dann startseite.de.sql (oder so ähnlich) heißen?
Beide Zeilen sind nun gelöscht und zack sagt der Tester, dass wieder alles funktioniert (ich tippe die Fehlermeldung verschwindet mit Zeitverzug).
Kann da einer von euch Licht ins Dunkel bringen und mir meinen (möglichen) Denkfehler aufzeigen?
Laut robots.txt-Tester kann der Googlebot nicht auf die Startseite zugreifen, da ich die Zeilen
Disallow: *.sql
Disallow: *.sql.gz
drin hatte.
Verstehe ich das Ganze nicht oder gibt es einen Fehler seitens Google?
Wenn ich es richtig verstanden habe, dann müsste die Startseite ja dann startseite.de.sql (oder so ähnlich) heißen?
Beide Zeilen sind nun gelöscht und zack sagt der Tester, dass wieder alles funktioniert (ich tippe die Fehlermeldung verschwindet mit Zeitverzug).
Kann da einer von euch Licht ins Dunkel bringen und mir meinen (möglichen) Denkfehler aufzeigen?