Seite 1 von 1

Searchconsole parameter - Nur URLs mit dem Wert xxx crawlen

Verfasst: 20.12.2018, 12:53
von Trafficjunk
Hallo,
ich benötige euer Schwarmwissen :D
Google indexiert meine pagination
domain/page/1
domain/page/2
domain/page/3
usw
Verursacht dadurch duplicated content.

ich möchte alles an duplicated content vom Crawling ausschließen..

In der Searchconsole habe ich den Parameter page eingetragen Siehe Bild.
Nun möchte ich page1 und page 2 crawlen lassen.Alles andere nicht.
Kann mir einer mit seiner Erfahrung helfen ?

Ich darf noch keine urls posten.Bitte url korrekt nutzen :
bilder-upload PUNKT eu/upload/0b41fd-1545306370.jpg[/img]

Verfasst:
von

Re: Searchconsole parameter - Nur URLs mit dem Wert xxx craw

Verfasst: 20.12.2018, 14:28
von arnego2
Trafficjunk hat geschrieben: ich möchte alles an duplicated content vom Crawling ausschließen..
Das geht meines Wissens nur über <meta name="robots" content="noindex"> im Head tag.

Re: Searchconsole parameter - Nur URLs mit dem Wert xxx craw

Verfasst: 20.12.2018, 17:41
von supervisior
Trafficjunk hat geschrieben: Verursacht dadurch duplicated content.

ich möchte alles an duplicated content vom Crawling ausschließen..
Wie kommst Du darauf, dass die Pagination Seiten doppelter Content wären? Wenn Du Inhalte hast, die sich über mehrere Seiten erstrecken und man dafür "blättern" muss, ist das doch kein doppelter Content. Mal angenommen es wäre so, dann wären das ja unnütze Seiten und führst Besucher in die Irre, was ich mir jetzt mal nicht vorstellen will.

Was das Thema doppelter Content anbetrifft, entscheidet Google für sich selbst, was doppelt ist und was nicht und das auch gegen Deinen Willen oder Deiner gut geglaubten Maßnahmen. Google traut generell keinem Webseiten Betreiber (und ich traue Google nicht) und entscheidet nach eigenen Gutdünken.

Ob ein Noindex wirklich dazu beiträgt, dass Google einen wirklichen doppelten Content nicht doch in die Bewertung miteinbezieht, lasse ich an der Stelle mal offen. Egal, was Du machst, um einen vermeintlich schädlichen Content vor Indexierung auszuschließen, überlege Dir diesen Schritt gut und am besten 3x!

Verfasst: 21.12.2018, 10:51
von supervisior
Hier nochmal ein Nachtrag zu meinem vorangegangenen Thread und weil mich der Titel dieses Themas angeregt hat der Sache aus persönlichem Interesse auf den Grund zu gehen.

Egal ob Google oder Bing und egal, ob eine Seite eine noindex oder nofollow Definition besitzt, beide Suchmaschinen scheren sich einen Teufel drum, was da definiert ist. Solche Seiten werden trotzdem ge-crawled. Diese Seiten mögen dann vielleicht nicht in den Index gelangen, aber die Frage, ob solche Seiten nicht trotzdem in die Bewertung einfließen, bleibt unbeantwortet!

Nachdem ich aus eigenen Gründen, um doppelten Content aus Sichtweise von Google & Co. zu verhindern, entsprechende Seiten mit noindex definiert habe, treibe ich es testweise mal auf die Spitze, um zu sehen, was passiert, bzw. wie Google darauf reagiert, weil ich diese Seiten jetzt mit einem 403 Header versehen habe, wenn Google darauf zugreift. Wenn Google demnächst in der Search Console moniert, dass Google keinen Zugriff auf diese Seiten hat, kommen mir wirklich Bedenken auf, ob Google sich an solche Vorgaben hält...!

Verfasst: 21.12.2018, 13:42
von arnego2
supervisior hat geschrieben: Diese Seiten mögen dann vielleicht nicht in den Index gelangen, aber die Frage, ob solche Seiten nicht trotzdem in die Bewertung einfließen, bleibt unbeantwortet!
Wie so vieles bei den Suchmaschinen.
Google selbst sagt das es keinen 100% Schutz gibt da sie den Link von einer anderen Webseite abgreifen könnten.

Verfasst:
von

Verfasst: 21.12.2018, 14:26
von supervisior
arnego2 hat geschrieben:
supervisior hat geschrieben: Diese Seiten mögen dann vielleicht nicht in den Index gelangen, aber die Frage, ob solche Seiten nicht trotzdem in die Bewertung einfließen, bleibt unbeantwortet!
Wie so vieles bei den Suchmaschinen.
Google selbst sagt das es keinen 100% Schutz gibt da sie den Link von einer anderen Webseite abgreifen könnten.
Da magst irgendwo schon recht haben, aber wenn im Header ein noindex definiert ist, dann bedeuet das nach meinem Verständnis, dass es keine Ausnahme gibt. noindex == noindex und nicht nonidex -> kommt drauf an noindex.

Das mit dem noindex ist ja auch nur ein Beispiel von vielen, woran sich Google nicht hält.

Verfasst: 21.12.2018, 18:38
von elmex
domain/page/1

ist auch was ganz anderes als

domain/pfad/?page=1

Das erste ist "irgendein Pfad", das zweite ist ein URL Parameter namens "page"

Daher bist du bei den Parametern völlig falsch unterwegs. Denn die genannten URLs enthalten keine...

Verfasst: 21.12.2018, 19:26
von supervisior
elmex hat geschrieben:domain/page/1

ist auch was ganz anderes als

domain/pfad/?page=1

Das erste ist "irgendein Pfad", das zweite ist ein URL Parameter namens "page"

Daher bist du bei den Parametern völlig falsch unterwegs. Denn die genannten URLs enthalten keine...
Kann es sein, dass Du da falsch liegst?

domain/page/1 == mod rewrite aus domain/pfad/?page=1

Verfasst: 21.12.2018, 19:55
von elmex
@supervisior
Und was weiss Google davon, dass du intern rewritest?! Normal nichts :D
Mit Rewrite "versteckt" man ja üblicherweise die Parameter vor der Suchmaschine, oder?

Verfasst: 21.12.2018, 22:43
von supervisior
Na sag ich doch die ganze Zeit. Ob das jetzt eine umgeschriebene URL ist oder nicht doesn't matter und das egal ob Google oder umgeschrieben oder nicht. Der Punkt ist doch und verweise auf meinen ersten Thread, wie der Themenstarter darauf kommt, dass es sich um doppelten Content handeln würde, wenn es eine Pagination gibt, die ja eigentlich keinen doppelten Content haben.

Verfasst: 23.12.2018, 09:51
von supervisior
supervisior hat geschrieben: Nachdem ich aus eigenen Gründen, um doppelten Content aus Sichtweise von Google & Co. zu verhindern, entsprechende Seiten mit noindex definiert habe, treibe ich es testweise mal auf die Spitze, um zu sehen, was passiert, bzw. wie Google darauf reagiert, weil ich diese Seiten jetzt mit einem 403 Header versehen habe, wenn Google darauf zugreift. Wenn Google demnächst in der Search Console moniert, dass Google keinen Zugriff auf diese Seiten hat, kommen mir wirklich Bedenken auf, ob Google sich an solche Vorgaben hält...!
Warum war das schon vorher klar? Wie zu erwarten, meckert Google jetzt in der Search Console, dass man keinen Zugriff mehr hat, weil ich Google einen 403 vor die Nase gesetzt habe. Was soll der Mist? Jetzt fehlt nur noch eine Abwertung....!