Alle URL's wurden mit Zusatz versehen, den ich jetzt über die robots.txt blockiert habe
Verfasst: 23.12.2019, 22:39
Hallo,
auf meiner Seite habe ich vor einigen Monaten ein bekanntes kostenloses Modul mit Hinweis auf Cookies installiert. Vor vier Wochen habe ich bei Erstellung einer Sitemap festgestellt, dass sämtliche URL mit der Endungen „?rCH=2“ versehen wurden. Nach Kontakt mit dem Hersteller wurde empfohlen, die Zeile „Disallow: /*?rCH“ in der robots.txt anzubringen. Jetzt erscheinen die URL's bei Aufruf wieder ohne diesen Zusatz. Die URL's existieren meist schon seit Jahren unverändert.
Die GoogleSearchConsole meldet jetzt:
Indexiert, obwohl durch robots.txt-Datei blockiert. Betroffene Seiten 971. Aufgeführt sind URL mit der Endungen "?rCH=2".
Das ist jetzt so und ist auch nicht zu ändern.
Meine Fragen wären: Wird Google irgendwann merken bzw. nach welcher Zeit merken, dass die Blockierung der Endung dauerhaft ist? Ist vorhersehbar, was dann passiert?
Ein Tipp könnte mich hoffentlich beruhigen (oder auch nicht).
Danke.
auf meiner Seite habe ich vor einigen Monaten ein bekanntes kostenloses Modul mit Hinweis auf Cookies installiert. Vor vier Wochen habe ich bei Erstellung einer Sitemap festgestellt, dass sämtliche URL mit der Endungen „?rCH=2“ versehen wurden. Nach Kontakt mit dem Hersteller wurde empfohlen, die Zeile „Disallow: /*?rCH“ in der robots.txt anzubringen. Jetzt erscheinen die URL's bei Aufruf wieder ohne diesen Zusatz. Die URL's existieren meist schon seit Jahren unverändert.
Die GoogleSearchConsole meldet jetzt:
Indexiert, obwohl durch robots.txt-Datei blockiert. Betroffene Seiten 971. Aufgeführt sind URL mit der Endungen "?rCH=2".
Das ist jetzt so und ist auch nicht zu ändern.
Meine Fragen wären: Wird Google irgendwann merken bzw. nach welcher Zeit merken, dass die Blockierung der Endung dauerhaft ist? Ist vorhersehbar, was dann passiert?
Ein Tipp könnte mich hoffentlich beruhigen (oder auch nicht).
Danke.