Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Links innerhalb eines kleinen Shops mit nur 20 Artikeln
Also darf man in bestimmten Maß doch Links kaufen?
also meinst Du nun die Seiten sollten auf:Vegas hat geschrieben:Noindex, follow und mit für den Besucher aussagekräftigem Titel, Description kannst Du Dir sparen.
na ja, noindex/follow ?ole1210 hat geschrieben:Wenn er noindex/follow schreibt, warum, sollte er dann noindex/nofollow meinen?
Nicht indiziert != nicht gelesen.Michi1 hat geschrieben:Wenn nicht indexiert wird - warum dann "follow"?ole1210 hat geschrieben:Wenn er noindex/follow schreibt, warum, sollte er dann noindex/nofollow meinen?
Noindex: Der Bot darf sich diese Unterseite zwar anschauen (sonst würde er ja das noindex nie sehen) aber er soll sie nicht in den Index aufnehmen.Michi1 hat geschrieben:Wenn nicht indexiert wird - warum dann "follow"?
Wäre doch eigentlich dann egal oder ?
Absolut geiler Post, Malte, Danke, du bist eine Bereicherung für dieses Forum.Malte Landwehr hat geschrieben: Noindex: Der Bot darf sich diese Unterseite zwar anschauen (sonst würde er ja das noindex nie sehen) aber er soll sie nicht in den Index aufnehmen.
Nofollow: Der Bot darf sich diese Unterseite anschauen, soll aber die Links nicht verfolgen. Jede mit nofollow ausgestattete Unterseite ist somit ein Linkjuice-Grab. Denn sie wird intern verlinkt und bekommt darüber Linkjuice, gibt den Linkjuice aber nicht über interne Links weiter.
noindex,follow: Die Unterseite kommt nicht in den Index, die Links werden aber ganz normal verfolgt und der Linkjuice, der bei ihr ankommt, wird weitergegeben.
noindex,nofollow: Die Unterseite kommt nicht in den Index und der Linkjuice versickert, was der ganzen Domain schadet.
Siehe dazu auch:
https://www.mattcutts.com/blog/pagerank-sculpting/
https://searchengineland.com/friends-do ... llow-77922
https://www.sistrix.de/news/pagerank-sculpting/
https://www.inhouse-seo.de/nofollow-pagerank-sculpting/
https://moz.com/blog/link-consolidation ... -sculpting
Übrigens: Wenn es viele Unterseiten dieser Form gibt, kann es sinnvoll sein, sie per robots.txt zu sperren. Dann geht der Linkjuice zwar auch verloren und sie landen (meist ohne Title und Snippet) im Index, dafür verbrauchen sie kein Crawling-Budget. Das ist aber nur für Domains mit vielen Unterseiten relevant.
Holt man bereits indexierte Seiten nicht mit noarchive raus?Kristian hat geschrieben: ...Seiten, die schon im Index sind, sollte man nicht in der robots.txt sperren.
Hier muss man warten, bis der Bot den Meta noindex gefressen und verarbeitet hat...