Online Marketing Forum Deutschland
 
ABAKUS Online Marketing Forum
Suchmaschinenoptimierung
+ABAKUS
ABAKUS bei Google+
Facebook
ABAKUS bei Facebook
Google+ SEO Community von ABAKUS
Google+
SEO Community

   

ABAKUS Foren-Übersicht -> Spiders / Robots Themen
 

Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?

Neues Thema eröffnen   Neue Antwort erstellen
 Es werden immer mehr seiten Indexiert, hab ich was verpasst? htaccess crawler  
nortstern

pr


: 28.07.2014
: 52
: Bonn


: 23.02.2016, 12:37    : Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?
Von: nortstern
nortstern
00 23.02.2016, 12:37
Antworten mit Zitat Antworten mit Zitat

Seit Freitag wird mir in der Search Console gesagt: "Es wurden schwerwiegende Probleme bezüglich des Status Ihrer Property gefunden."

Laut robots.txt-Tester kann der Googlebot nicht auf die Startseite zugreifen, da ich die Zeilen

Disallow: *.sql
Disallow: *.sql.gz

drin hatte.

Verstehe ich das Ganze nicht oder gibt es einen Fehler seitens Google?
Wenn ich es richtig verstanden habe, dann müsste die Startseite ja dann startseite.de.sql (oder so ähnlich) heißen?

Beide Zeilen sind nun gelöscht und zack sagt der Tester, dass wieder alles funktioniert (ich tippe die Fehlermeldung verschwindet mit Zeitverzug).

Kann da einer von euch Licht ins Dunkel bringen und mir meinen (möglichen) Denkfehler aufzeigen?

Irgendwo im Nirgendwo
00
Nach oben
nortstern Private Nachricht senden
arnego2

pr


: 23.02.2016
: 1298



: 24.02.2016, 14:21    : Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?
Von: arnego2
arnego2
00 24.02.2016, 14:21
Antworten mit Zitat Antworten mit Zitat

Nun Google ist weit von der Unfehlbarkeit entfernt, man kann seine Seite auch über Bing überprüfen.

Arnego2 <Traffic>
00
Nach oben
arnego2 Private Nachricht senden WWW
e-fee

pr


: 08.05.2007
: 3894



: 24.02.2016, 21:05    : Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?
Von: e-fee
e-fee
00 24.02.2016, 21:05
Antworten mit Zitat Antworten mit Zitat

Ich frage mich aber gerade, weswegen das überhaupt über die robots.txt "gesperrt" ist.
Denn ich gehe mal davon aus, dass diese Dateien eher nicht so für die Öffentlichkeit bestimmt sind, oder?
In dem Fall wird nur eine Scheinsicherheit geschaffen, die Dateien sind ja dann trotzdem theoretisch für jedermann abrufbar, zumindest wenn er den Link kennt.

Ich könnte mir vorstellen, dass eine Lösung über Dateirechte oder .htaccess möglicherweise besser geeignet sein könnte. Dann kannst Du Dir den Kram mit der robots.txt auch sparen.
00
Nach oben
e-fee Private Nachricht senden WWW
ABAKUS


: Werbung 




Professionelles und nachhaltiges Linkbuilding bei ABAKUS Internet Marketing.
Nutzen Sie unsere jahrelange Erfahrung und lassen Sie sich zu den Themen Offpage-Optimierung und Linkaufbau beraten!
Jetzt anfragen unter: www.abakus-internet-marketing.de

nortstern

pr


: 28.07.2014
: 52
: Bonn


: 25.02.2016, 09:56    : Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?
Von: nortstern
nortstern
00 25.02.2016, 09:56
Antworten mit Zitat Antworten mit Zitat

Ich sage es mal so: Ich bin nur das kontrollierende Organ

Der Vorschlag ist aber gut, den werde ich mal weitergeben.

Irgendwo im Nirgendwo
00
Nach oben
nortstern Private Nachricht senden
Neues Thema eröffnen   Neue Antwort erstellen    ABAKUS Foren-Übersicht -> Spiders / Robots Themen

Seite 1 von 1
 





Ähnliche Beiträge
Thema Online Marketing Forum Antworten
robots.txt: Unterseiten von dir/ sperren, aber "dir/&am robots.txt: Unterseiten von dir/ sper... umwelt Ich hab' da mal 'ne Frage 5 21.02.2019, 08:48 robots.txt: Unterseiten von dir/ sperren, aber "dir/&am
Mobile Local Serps Bild Robots.txt Mobile Local Serps Bild Robots.txt Boromir Ich hab' da mal 'ne Frage 6 15.02.2019, 10:08 Mobile Local Serps Bild Robots.txt
Lokales Ranking verbessern durch Text über Stadt? Lokales Ranking verbessern durch Text... Lyk Ich hab' da mal 'ne Frage 2 02.02.2019, 12:53 Lokales Ranking verbessern durch Text über Stadt?
Benötige ich 2x robots & 2x sitemap für Desktop & Mo Benötige ich 2x robots & 2x sitem... staticweb Spiders / Robots Themen 11 30.01.2019, 20:49 Benötige ich 2x robots & 2x sitemap für Desktop & Mo
Keyword-Ausbeute durch Scrapebox/Google Suggest sehr gering Keyword-Ausbeute durch Scrapebox/Goog... chilly_bang SEO Tools & Suchmaschinenmarketing-Tools 3 28.01.2019, 18:00 Keyword-Ausbeute durch Scrapebox/Google Suggest sehr gering
Warum kriegt man bei den meisten Hostern keine .to Domain? Warum kriegt man bei den meisten Host... Webler Ich hab' da mal 'ne Frage 27 27.01.2019, 20:28 Warum kriegt man bei den meisten Hostern keine .to Domain?
Duplikate durch Übersichtsseite Duplikate durch Übersichtsseite yo_ray Ich hab' da mal 'ne Frage 2 11.01.2019, 09:02 Duplikate durch Übersichtsseite


SEO Wetter von www.seowetter.de

Startseite der SEO-Agentur ABAKUS | SEO Blog | SEO Online Tools | SEO Angebote | Modulare SEO Seminare

Impressum | Datenschutz

Googlebot fühlt sich durch robots.txt ausgesperrt - Warum? Googlebot fühlt sich durch robots.txt ausgesperrt - Warum? - Österreich Googlebot fühlt sich durch robots.txt ausgesperrt - Warum? - Schweiz

Dieses SEO Forum läuft unter phpBB.


Sie lesen gerade: Googlebot fühlt sich durch robots.txt ausgesperrt - Warum?