Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Über die Sitemap das Crawling zu steuern geht nicht. Die Sitemap ist lediglich eine Hilfe beim Crawling (Noindex-Seiten haben in der Sitemap übrigens per se nichts zu suchen) und keine Instrument um den Crawler ordentlich zu steuern.Can hat geschrieben:Würde via Sitemap Prio regeln. 0 und fertig.
Es geht hier um die Zuweisung von Relevanz.nanos hat geschrieben:Über die Sitemap das Crawling zu steuern geht nicht. Die Sitemap ist lediglich eine Hilfe beim Crawling (Noindex-Seiten haben in der Sitemap übrigens per se nichts zu suchen) und keine Instrument um den Crawler ordentlich zu steuern.Can hat geschrieben:Würde via Sitemap Prio regeln. 0 und fertig.
https://support.google.com/webmasters/a ... 6184?hl=deEine Sitemap ist eine Datei, in der Sie die einzelnen Webseiten Ihrer Website auflisten können. So lassen Sie Google und andere Suchmaschinen wissen, wie die Inhalte Ihrer Website strukturiert sind. Suchmaschinen-Webcrawler wie der Googlebot lesen diese Datei, um Ihre Website intelligenter crawlen zu können.
a) Kann man mit ein paar Tausend Seiten das Crawlingbudget unmöglich ausschöpfen. Dazu bräuchte es schon Faktor X mehr URLsCan hat geschrieben:Es geht hier um die Zuweisung von Relevanz.nanos hat geschrieben:Über die Sitemap das Crawling zu steuern geht nicht. Die Sitemap ist lediglich eine Hilfe beim Crawling (Noindex-Seiten haben in der Sitemap übrigens per se nichts zu suchen) und keine Instrument um den Crawler ordentlich zu steuern.Can hat geschrieben:Würde via Sitemap Prio regeln. 0 und fertig.
https://support.google.com/webmasters/a ... 6184?hl=deEine Sitemap ist eine Datei, in der Sie die einzelnen Webseiten Ihrer Website auflisten können. So lassen Sie Google und andere Suchmaschinen wissen, wie die Inhalte Ihrer Website strukturiert sind. Suchmaschinen-Webcrawler wie der Googlebot lesen diese Datei, um Ihre Website intelligenter crawlen zu können.
Bei einem konkreten Problem mit Ausreizung des Crawlingbudgets würde ich das nun mal als erstes versuchen. Erfolg / Misserfolg sollte sich ja schnell abzeichnen.
Ich kenne auch kein Projekt das je an die Crawlinggrenze gestoßen ist. Wenn der TE danach fragt liefere ich jedoch die bestmögliche Antwort.nanos hat geschrieben: a) Kann man mit ein paar Tausend Seiten das Crawlingbudget unmöglich ausschöpfen. Dazu bräuchte es schon Faktor X mehr URLs
b) Ist die Sitemap nur eine Hilfe für die Indexierung von Seiten. Da es hier aber gerade darum geht, Seiten nicht zu indexieren bzw. gar nicht erst von Google crawlen zu lassen, ist die Sitemap keine Alternative.
Über die Priorisierung in der Sitemap kann man sicherlich festlegen wie oft Google die dort aufgeführten URLs besucht, und dementsprechend steuern, welcher Seiten einem wichtiger und welche weniger wichtig sind (Relevanz). Aber Seiten, die nicht gecrawlt werden sollen in die Sitemap aufzunehmen und dann mit 0 zu "bewerten" ist definitv keine Lösung für das Problem.
Besser keine Lösung als eine falsche, die nicht zielführend ist.Can hat geschrieben:Ich kenne auch kein Projekt das je an die Crawlinggrenze gestoßen ist. Wenn der TE danach fragt liefere ich jedoch die bestmögliche Antwort.nanos hat geschrieben: a) Kann man mit ein paar Tausend Seiten das Crawlingbudget unmöglich ausschöpfen. Dazu bräuchte es schon Faktor X mehr URLs
b) Ist die Sitemap nur eine Hilfe für die Indexierung von Seiten. Da es hier aber gerade darum geht, Seiten nicht zu indexieren bzw. gar nicht erst von Google crawlen zu lassen, ist die Sitemap keine Alternative.
Über die Priorisierung in der Sitemap kann man sicherlich festlegen wie oft Google die dort aufgeführten URLs besucht, und dementsprechend steuern, welcher Seiten einem wichtiger und welche weniger wichtig sind (Relevanz). Aber Seiten, die nicht gecrawlt werden sollen in die Sitemap aufzunehmen und dann mit 0 zu "bewerten" ist definitv keine Lösung für das Problem.
Du hast keine Lösung und blubberst nach was irgendwelche SEO Blogs in ihrer Parallelwelt gegenseitig umherzwitschern und das so oft bis es Gesetz ist.
Priorisierung mittels Sitemap ist daher der erste Anstatz. Gerne kannst du ein Fallbeispiel erstellen und die These widerlegen - ich habe nicht gesagt dass sie funktioniert es ist aber das schnellste was mir einfällt was bei erträglichem Aufwand zu einem vertretbaren Ziel führen könnte.
Es gibt kein Gesetz was eine Sitemap ist. Es gibt glaube ich auch keine fundiert (getestet & bewiesen oder Google FAQ) Aussage, dass noindex Seiten in der Sitemap stören. Vor allem sollen no index Seiten ja gewöhnlich auch gecrawled werden und sind deshalb absolut kein Fehler in der Sitemap.