Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Wenn eine Seite Noindex ist, crawlt Google sie ja. Das will ich aufgrund des Crawlingbudgets verhindern, indem ich die Seiten per robots.txt aussperre.Can hat geschrieben:Google hält sich exakt daran. Wenn du sie in der Robots vom crawlen ausschließt kann er kein noindex finden. Verlinkt jetzt irgendwas diese Seite kann sie somit in den Index.
Von daher ist es kein Problem dem Google Bot "Zugriff" zu gewähren.
vg
Du verstehst glaube ich nicht was ich meine. Ich will den Crawler entlasten und daher per robots die URLs aussperren, die keinen Mehrwert für ihn haben. Diese URLs DÜRFEN dann ja nicht mehr vom Crawler gecrawlt werden und können somit eigentlich NICHT indexiert werden.Can hat geschrieben:Doch.
Hatte noch nie Seiten die nicht mehr indexiert wurden weil das Crawling Budget aufgebraucht war. Daher robots freigeben, dann wird noindex gewertet. Teste es halt.
So ist es und später, wenn alle URLs raus sind, kann man wieder robots.txt setzen.Can hat geschrieben:Von daher wenn du ans Ziel willst: robots raus, noindex drinn lassen.
Nicos hat geschrieben:Ansonsten alle auf noindex und warten bis sie raus sind, dann via robots den Crawler komplett aussperren. Alternativ kannst Du die URLs auch über die SearchConsole rauswerfen, das geht oft schneller als auf den Crawler zu warten, der das noindex endlich entdecken soll!
Ich diagnostiziere: Beratungsresistent.nanos hat geschrieben:Ich erkläre es nochmal. Vielleicht war ich anfangs nicht klar verständlich.
Folgende Situation:
Wir betreiben einen Online Shop auf dessen Kategorieseiten wir die unwichtigen Filterurls jahrelang mit noindex ausgezeichnet haben. Das hat auch immer geklappt, die URLs waren nie im Index.
Dann haben wir aufgrund der Einsparung von Crawlingbudget (warum soll Google noindex-Filterurls crawlen, die unwichtig für Google sind und wir auch nicht im Index haben wollen) uns gedacht, dass wir die FilterURLs einfach per robots.txt sperren.
Das haben wir dann auch umgehend getan. Ergo Sperrung durch robots.txt + weiteres Beibehalten von Noindex (ich weiß, dass bringt nichts, aber schaden kann es auch nichts dachte ich mir).
Doch seitdem wir die Sperrung in der robots.txt haben ignoriert Google sie und indexiert fröhlich die FilterURLs. In den Serps steht dann anstatt der Meta Description zwar "Durch robots gesperrt usw", aber nichtsdestotrotz sind die URLs im Index und haben unseren Shop von ca. 2.000 URL auf mittlerweile knapp 100.000 URLs aufgebläht.
Wenn ich die Seiten auf Noindex stelle und die Robots.txt-Sperrung wieder rausnehme, bin ich auf demselben Level, auf dem wir immer waren. Dann fliegen die URLs zwar wieder aus dem Index (das ist mir klar), aber dennoch habe ich keine Einsparung des Crawlingbudgets erreicht (was einzig und allein Sinn und Zweck der Aktion war)!Can hat geschrieben:Ich diagnostiziere: Beratungsresistent.nanos hat geschrieben:Ich erkläre es nochmal. Vielleicht war ich anfangs nicht klar verständlich.
Folgende Situation:
Wir betreiben einen Online Shop auf dessen Kategorieseiten wir die unwichtigen Filterurls jahrelang mit noindex ausgezeichnet haben. Das hat auch immer geklappt, die URLs waren nie im Index.
Dann haben wir aufgrund der Einsparung von Crawlingbudget (warum soll Google noindex-Filterurls crawlen, die unwichtig für Google sind und wir auch nicht im Index haben wollen) uns gedacht, dass wir die FilterURLs einfach per robots.txt sperren.
Das haben wir dann auch umgehend getan. Ergo Sperrung durch robots.txt + weiteres Beibehalten von Noindex (ich weiß, dass bringt nichts, aber schaden kann es auch nichts dachte ich mir).
Doch seitdem wir die Sperrung in der robots.txt haben ignoriert Google sie und indexiert fröhlich die FilterURLs. In den Serps steht dann anstatt der Meta Description zwar "Durch robots gesperrt usw", aber nichtsdestotrotz sind die URLs im Index und haben unseren Shop von ca. 2.000 URL auf mittlerweile knapp 100.000 URLs aufgebläht.
Was willst du eigentlich, dein Problem lösen oder diskutieren?
Das habe ich nach der Indexierung auch gleich getan. Vorher hat da niemand dran gedacht.Can hat geschrieben:Nein dann gehst du in die Webmastertools unter Crawling und definierst dort die Filterparameter.
Btw - hast du wirklich eine Einschränkung der Indexierung verspührt oder ist diese Maßnahme präventiv?