Seite 1 von 1

Search Console: Bot konnte nicht alle Ressourcen abrufen

Verfasst: 15.12.2017, 09:56
von dasgelbevomEi
Hallo Gemeinde!

Ich bekomme bei dem "Abruf wie durch Google" die Meldung:
Der Googlebot konnte nicht alle Ressourcen für diese Seite abrufen. Hier eine Liste:
Als URL wurde mir dann

https://www.googleadservices.com/pagead ... n_async.js

mit dem Grund "Blockiert" angezeigt. Hinten steht dann robots.txt. Klickt man darauf, kommt man zu:

https://www.googleadservices.com/robots.txt

Daher meine Frage, ob es für die Auffindbarkeit relevant ist. Wir haben in den letzten Monaten massive Probleme mit unserem Ranking, das von Seite 1 bei Google nichtmals mehr in den ersten 100 Suchergebnissen auftaucht.

Im Quellcode finde ich diesen Eintrag übrigens nicht direkt.

Kann mir jemand helfen?

Viele Grüße
Roman

Verfasst:
von

Verfasst: 15.12.2017, 10:32
von dasgelbevomEi
Dabei fällt mir gerade auch auf, dass beim Rendern der Seite (Vorschau in der Search Console) die englische Version angezeigt wird, obwohl die Hauptdomain eigentlich auf Deutsch ist. Wir haben auch eine englische Sprachversion in "unseredomain.com/en/".

Ich möchte an dieser Stelle nochmal erwähnen: Wir wundern uns seit Monaten, dass wir bei deutschen Suchbegriffen, bei denen wir ewig top gelistet waren sehr schnell aus den ersten 100 Suchergebnissen gefallen sind.

Nun frage ich mich auch hier, wenn mir die englische Seite angezeigt wird, ob es damit zusammenhängen könnte.

Verfasst: 19.12.2017, 15:00
von dasgelbevomEi
Weiß jemand Rat?

Verfasst: 02.01.2018, 18:53
von mits

Verfasst: 08.01.2018, 16:32
von ABAKUS_Tim
https://www.googleadservices.com/pagead ... n_async.js ist ja der conv. tracking bzw. remarketing code , wenn du die Seite lädst im Browser(Chrome F12 -> dann F5) und dann im Network tab nach dem code suchst dürfte er nicht blockiert sein(was er nicht sein wird "Überraschung" =)). Die Lösung ist, das Google seine eigenen Parameter Blockiert (deshalb auch https://www.googleadservices.com/robots.txt als Verweisquelle), damit dieses sich nicht ändernde Script nicht jedesmal wieder gecrawlt wird(für Google ist das nicht interessant deshalb blockiert). Es gibt Dutzende von anderen Ressourcen, die hier nicht auftauchen(man kann ja schlecht die robots.txt der anderen Domain kontrollieren bzw. was Sie blockiert). Mit dem Ranking dürfte das überhaupt nichts zu tun haben, das ist hier quasi eine Bonusinfo, viel machen kann man da nicht.

Verfasst: 31.01.2018, 02:30
von mits
Ich habe ein ähnliches Problem: https://www.abakus-internet-marketing.d ... 40164.html
-> Bei mir lag es evtl. daran, dass ich Subdomains verwendet habe, oder aber dass ich die Sitemap-HTML-Daten in der robots.txt exkludiert habe. (?)

Verfasst: 31.01.2018, 02:32
von mits
"dass ich Subdomains verwendet habe"
Also damit meine ich, dass der Inhaber der Domain irgendwelche Einstellungen "global" gelten lässt - und die Subdomains xxx.info.tm haben dann das Problem...

Nun habe ich ne "richtige" Domain (.xyz), und damit läuft's scheinbar..;)