Seite 1 von 2

Google Search Console: Nur noch 10 URLs pro Tag indexierbar?

Verfasst: 11.02.2018, 18:59
von Keyser Soze
Bis Januar 2018 konnte man innerhalb eines Monats immer für bis zu 500 URLs in der Google Search Console eine Indexierung beantragen unter dem Menüpunkt "Abruf wie durch Google". Also theoretisch auch alle 500 URLs an nur einem einzigen Tag.
Seit ca. einer Woche kann ich aber offenbar nur noch 10 URLs pro Tag übermitteln. Und zwar nicht pro Domain, sondern für den gesamten Search-Console-Account als ganzes (bei mir mit einer dreistelligen Anzahl von Domains).
Ab der 11. URL, die man einzutragen versucht, kommt nur noch eine Fehlermeldung "Ein Fehler ist aufgetreten. Bitte versuchen Sie es später erneut."
Ist das nur bei mir so oder hat das Google allgemein so extrem eingeschränkt?

Verfasst:
von

Verfasst: 12.02.2018, 05:47
von ElCattivo
Ich hab jetzt nicht weiter probiert (nur einmal), aber der Zähler ist auf jeden fall nicht mehr da. Man kann also nicht mehr ablesen, wie viele "Versuche" man noch hat. Erst stand für nur die eine URL 500 und für die URL + verlinkte Seiten 10.

Viele Grüße
ElCattivo

Verfasst: 12.02.2018, 07:22
von Keyser Soze
Ok dann scheint das wohl für alle geändert worden zu sein. Nur irgendwie seltsam, warum Google das nicht transparent anzeigt, dass es nur noch wenige URLs pro Tag sind, und stattdessen dann so eine nichtssagende Fehlermeldung erscheint beim Überschreiten der Grenze.

Verfasst: 12.02.2018, 08:03
von ElCattivo
Vor allem, dass der Zähler weg ist, macht mir grad Sorgen für zukünftige Aktionen. Wie kann man so eine Anzeige entfernen? Das ist doch einfach nur dämlich!?

Viele Grüße
ElCattivo

Verfasst: 12.02.2018, 14:27
von arnego2
Keyser Soze hat geschrieben: ... warum Google das nicht transparent anzeigt.
Mindestens seit der Desinformationskampagne mit Matt Cutts ist Google wenig bis gar nicht transparent. IMHO

Verfasst: 17.03.2018, 18:20
von Keyser Soze
Mittlerweile scheint das entsprechende Formular gar nicht mehr von Google beachtet zu werden. Keine einzige der URLs, die ich in den letzten Tagen dort übermittelt habe, wurde seitdem neu gecrawlt (sonst passierte das immer innerhalb weniger Sekunden).

Verfasst: 17.03.2018, 23:07
von ElCattivo
Kann ich nicht bestätigen. Am 13.03. meine Startseite eingegeben und sofort wurde losgecrawlt, was das Zeug hält. Die Seiten waren im Laufe des Tages über "site:example.org"zu finden. Dass das nicht nach wenigen Minuten der Fall war, liegt wohl daran, dass die Domain frisch ist. GSC meint im Nachgang, dass 541 Seiten gecrawlt wurden.

Hast du mal in die access.log Dateien geschaut? Wenn du da nichts findest, wurde wirklich nicht gecrawlt. Ansonsten ist das mMn nur eine vage Vermutung deinerseits.

Viele Grüße
ElCattivo

Verfasst: 18.03.2018, 08:02
von Keyser Soze
Ok ich hätte das "in den letzten Tagen" gleich konkreter spezifizieren sollen. Bis 14.03. hat alles noch bestens funktioniert, seit 15.03. geht gar nix mehr (=weder neue und bisher unbekannte, noch aktualisierte URLs werden nach Eintragung ins Formular gecrawlt).

Verfasst: 18.03.2018, 09:16
von mm2323
hm

Verfasst: 18.03.2018, 09:30
von Keyser Soze
mm2323 hat geschrieben:... und die Seiten waren über das normale Crawlen erst etwa 24h später drin.
Ich wäre ja schon froh, wenn das der Fall wäre. Aber nicht mal die via Sitemap übermittelten URLs werden momentan zeitnah gecrawlt. An den Domains dürfte es eher nicht liegen, denn über mangelnden Google-Suchtraffic kann ich mich wahrlich nicht beklagen. Aber obwohl alle URLs in den Sitemaps Zeitstempel für die letzte Aktualisierung der jeweiligen URL haben, es für Google also ein leichtes sein sollte, wenigstens mal neue URLs 1x zu crawlen am gleichen Tag, passiert das erst ungefähr nach einer Woche.

Das einzige was momentan noch gut funktioniert sind die Google-News-Sitemaps, da sind die Newsartikel aus der Sitemap nach wie vor wenige Sekunden später im News-Index drin. Bei allen anderen Sitemaps scheint momentan der Wurm drin zu sein, genauso wie beim Formular in den Webmaster Tools zum Übermitteln von URLs.

Verfasst: 18.03.2018, 10:35
von mm2323
mhm

Verfasst: 18.03.2018, 13:52
von arnego2
Keyser Soze hat geschrieben:An den Domains dürfte es eher nicht liegen, denn über mangelnden Google-Suchtraffic kann ich mich wahrlich nicht beklagen.
Was soviel bedeutet das die Seite im Index ist. Schon mal über site:xxxxx.xxx nachgesehen ob sie im index sind?

Verfasst: 18.03.2018, 14:39
von mm2323
hm

Verfasst: 18.03.2018, 16:11
von arnego2
mm2323 hat geschrieben:Die Site-Abfrage zeigt es bei mir nicht an; die info-Abfrage zeigt die Seite dagegen schon im Index.
Ich denke der Irrtum könnte auf Google's Seite liegen. So ganz Fehlerfrei läuft die Tante schon seit längerem nicht mehr.

Verfasst: 18.03.2018, 17:19
von Keyser Soze
arnego2 hat geschrieben:Was soviel bedeutet das die Seite im Index ist. Schon mal über site:xxxxx.xxx nachgesehen ob sie im index sind?
Klaro, regelmäßig die erste Maßnahme. Und nein, im Index sind sie jeweils nicht (also nicht nach Sitemap-Resubmit, sondern erst dann wenn der Googlebot dann "zufällig" drüberstolpert beim Crawlen der Seite).