Seite 1 von 1

Wie verfährt man mit "Login" Seiten, etc.

Verfasst: 23.02.2014, 18:07
von Michi1
Hi,
meine Fragen an die Cracks.
Wie sollte man SEO taktisch mit Seiten verfahren, wie z. B.:
- Login
- Logout
- Detailsuche
- Impressum
- und ähnliche?

ich meine hier betreffend:
1. Title
2. description
3. noindex - ja oder nein
4. nofollow - ja oder nein

mfg
M

Verfasst:
von

Verfasst: 23.02.2014, 18:13
von Vegas
Noindex, follow und mit für den Besucher aussagekräftigem Titel, Description kannst Du Dir sparen.

Verfasst: 27.02.2014, 12:37
von Michi1
Vegas hat geschrieben:Noindex, follow und mit für den Besucher aussagekräftigem Titel, Description kannst Du Dir sparen.
also meinst Du nun die Seiten sollten auf:
noindex/follow gesetzt werden?
oder meintest Du
noindex/nofollow

??

mfg
M

Verfasst: 27.02.2014, 13:01
von ole1210
Wenn er noindex/follow schreibt, warum, sollte er dann noindex/nofollow meinen?

Verfasst: 27.02.2014, 13:05
von Michi1
ole1210 hat geschrieben:Wenn er noindex/follow schreibt, warum, sollte er dann noindex/nofollow meinen?
na ja, noindex/follow ?
Verstehen tue ich es nicht.
Wenn nicht indexiert wird - warum dann "follow"?
Wäre doch eigentlich dann egal oder ?

mfg
M

Verfasst:
von

Verfasst: 27.02.2014, 14:08
von Beloe007
Michi1 hat geschrieben:
ole1210 hat geschrieben:Wenn er noindex/follow schreibt, warum, sollte er dann noindex/nofollow meinen?
Wenn nicht indexiert wird - warum dann "follow"?
Nicht indiziert != nicht gelesen.

Nofollow (robots) macht nur sehr selten sinn.

Verfasst: 27.02.2014, 19:19
von Malte Landwehr
Michi1 hat geschrieben:Wenn nicht indexiert wird - warum dann "follow"?
Wäre doch eigentlich dann egal oder ?
Noindex: Der Bot darf sich diese Unterseite zwar anschauen (sonst würde er ja das noindex nie sehen) aber er soll sie nicht in den Index aufnehmen.

Nofollow: Der Bot darf sich diese Unterseite anschauen, soll aber die Links nicht verfolgen. Jede mit nofollow ausgestattete Unterseite ist somit ein Linkjuice-Grab. Denn sie wird intern verlinkt und bekommt darüber Linkjuice, gibt den Linkjuice aber nicht über interne Links weiter.

noindex,follow: Die Unterseite kommt nicht in den Index, die Links werden aber ganz normal verfolgt und der Linkjuice, der bei ihr ankommt, wird weitergegeben.

noindex,nofollow: Die Unterseite kommt nicht in den Index und der Linkjuice versickert, was der ganzen Domain schadet.

Siehe dazu auch:
https://www.mattcutts.com/blog/pagerank-sculpting/
https://searchengineland.com/friends-do ... llow-77922
https://www.sistrix.de/news/pagerank-sculpting/
https://www.inhouse-seo.de/nofollow-pagerank-sculpting/
https://moz.com/blog/link-consolidation ... -sculpting

Übrigens: Wenn es viele Unterseiten dieser Form gibt, kann es sinnvoll sein, sie per robots.txt zu sperren. Dann geht der Linkjuice zwar auch verloren und sie landen (meist ohne Title und Snippet) im Index, dafür verbrauchen sie kein Crawling-Budget. Das ist aber nur für Domains mit vielen Unterseiten relevant.

Verfasst: 28.02.2014, 08:29
von Habe
Danke für die Übersicht, Malte!

Hab dazu auch eine Frage:

Ich habe auf meiner Website eine Seite, auf der ich umfangreiche Ausschnitte aus meinen anderen Artikeln auf dieser Domain zu einem umfassenden Infoartikel zusammengefasst habe.

Dieser lange Infoartikel enthält also umfangreiche Textpassagen von den indexierten Seite A bis Seite Z.

Dieser umfassende Infoartikel ist also somit eine Seite mit internen Duplicate Content. Ich habe diesen Infoartikel auf noindex,follow gesetzt, damit Google diesen Artikel nicht als Duplicate Content wertet.

Ist in diesem Fall noindex,follow sinnvoll?

Schöne Grüße

HaBe

Verfasst: 28.02.2014, 09:55
von Kristian
Malte Landwehr hat geschrieben: Noindex: Der Bot darf sich diese Unterseite zwar anschauen (sonst würde er ja das noindex nie sehen) aber er soll sie nicht in den Index aufnehmen.

Nofollow: Der Bot darf sich diese Unterseite anschauen, soll aber die Links nicht verfolgen. Jede mit nofollow ausgestattete Unterseite ist somit ein Linkjuice-Grab. Denn sie wird intern verlinkt und bekommt darüber Linkjuice, gibt den Linkjuice aber nicht über interne Links weiter.

noindex,follow: Die Unterseite kommt nicht in den Index, die Links werden aber ganz normal verfolgt und der Linkjuice, der bei ihr ankommt, wird weitergegeben.

noindex,nofollow: Die Unterseite kommt nicht in den Index und der Linkjuice versickert, was der ganzen Domain schadet.

Siehe dazu auch:
https://www.mattcutts.com/blog/pagerank-sculpting/
https://searchengineland.com/friends-do ... llow-77922
https://www.sistrix.de/news/pagerank-sculpting/
https://www.inhouse-seo.de/nofollow-pagerank-sculpting/
https://moz.com/blog/link-consolidation ... -sculpting

Übrigens: Wenn es viele Unterseiten dieser Form gibt, kann es sinnvoll sein, sie per robots.txt zu sperren. Dann geht der Linkjuice zwar auch verloren und sie landen (meist ohne Title und Snippet) im Index, dafür verbrauchen sie kein Crawling-Budget. Das ist aber nur für Domains mit vielen Unterseiten relevant.
Absolut geiler Post, Malte, Danke, du bist eine Bereicherung für dieses Forum.
Das einzige, was klugscheisserich noch erwähnt werden sollte:
Seiten, die schon im Index sind, sollte man nicht in der robots.txt sperren.
Hier muss man warten, bis der Bot den Meta noindex gefressen und verarbeitet hat.
Danach sollte man dann den Eintrag in der robots.txt setzen.
Das gilt IMHO auch für kleine Seiten, wir sollten smart sein und Google die Arbeit erleichtern.

Verfasst: 01.03.2014, 18:02
von Mr b00ner
Kristian hat geschrieben: ...Seiten, die schon im Index sind, sollte man nicht in der robots.txt sperren.
Hier muss man warten, bis der Bot den Meta noindex gefressen und verarbeitet hat...
Holt man bereits indexierte Seiten nicht mit noarchive raus? :D