Seite 1 von 1

Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?

Verfasst: 23.02.2016, 12:37
von nortstern
Seit Freitag wird mir in der Search Console gesagt: "Es wurden schwerwiegende Probleme bezüglich des Status Ihrer Property gefunden."

Laut robots.txt-Tester kann der Googlebot nicht auf die Startseite zugreifen, da ich die Zeilen

Disallow: *.sql
Disallow: *.sql.gz

drin hatte.

Verstehe ich das Ganze nicht oder gibt es einen Fehler seitens Google?
Wenn ich es richtig verstanden habe, dann müsste die Startseite ja dann startseite.de.sql (oder so ähnlich) heißen?

Beide Zeilen sind nun gelöscht und zack sagt der Tester, dass wieder alles funktioniert (ich tippe die Fehlermeldung verschwindet mit Zeitverzug).

Kann da einer von euch Licht ins Dunkel bringen und mir meinen (möglichen) Denkfehler aufzeigen?

Verfasst:
von

Verfasst: 24.02.2016, 14:21
von arnego2
Nun Google ist weit von der Unfehlbarkeit entfernt, man kann seine Seite auch über Bing überprüfen.

Verfasst: 24.02.2016, 21:05
von e-fee
Ich frage mich aber gerade, weswegen das überhaupt über die robots.txt "gesperrt" ist.
Denn ich gehe mal davon aus, dass diese Dateien eher nicht so für die Öffentlichkeit bestimmt sind, oder?
In dem Fall wird nur eine Scheinsicherheit geschaffen, die Dateien sind ja dann trotzdem theoretisch für jedermann abrufbar, zumindest wenn er den Link kennt.

Ich könnte mir vorstellen, dass eine Lösung über Dateirechte oder .htaccess möglicherweise besser geeignet sein könnte. Dann kannst Du Dir den Kram mit der robots.txt auch sparen.

Verfasst: 25.02.2016, 09:56
von nortstern
Ich sage es mal so: Ich bin nur das kontrollierende Organ ;-)

Der Vorschlag ist aber gut, den werde ich mal weitergeben.