Warum registrieren? Nur als registriertes Mitglied vom ABAKUS Forum hast Du vollen Zugriff auf alle Funktionen unserer Website.

Searchconsole parameter - Nur URLs mit dem Wert xxx crawlen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Trafficjunk
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 04.07.2018, 08:36

Beitrag von Trafficjunk » 20.12.2018, 12:53

Hallo,
ich benötige euer Schwarmwissen :D
Google indexiert meine pagination
domain/page/1
domain/page/2
domain/page/3
usw
Verursacht dadurch duplicated content.

ich möchte alles an duplicated content vom Crawling ausschließen..

In der Searchconsole habe ich den Parameter page eingetragen Siehe Bild.
Nun möchte ich page1 und page 2 crawlen lassen.Alles andere nicht.
Kann mir einer mit seiner Erfahrung helfen ?

Ich darf noch keine urls posten.Bitte url korrekt nutzen :
bilder-upload PUNKT eu/upload/0b41fd-1545306370.jpg[/img]

arnego2
PostRank 9
PostRank 9
Beiträge: 1502
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag von arnego2 » 20.12.2018, 14:28

Trafficjunk hat geschrieben: ich möchte alles an duplicated content vom Crawling ausschließen..
Das geht meines Wissens nur über <meta name="robots" content="noindex"> im Head tag.
Arnego2 <Web & Content>

supervisior
PostRank 8
PostRank 8
Beiträge: 968
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 20.12.2018, 17:41

Trafficjunk hat geschrieben: Verursacht dadurch duplicated content.

ich möchte alles an duplicated content vom Crawling ausschließen..
Wie kommst Du darauf, dass die Pagination Seiten doppelter Content wären? Wenn Du Inhalte hast, die sich über mehrere Seiten erstrecken und man dafür "blättern" muss, ist das doch kein doppelter Content. Mal angenommen es wäre so, dann wären das ja unnütze Seiten und führst Besucher in die Irre, was ich mir jetzt mal nicht vorstellen will.

Was das Thema doppelter Content anbetrifft, entscheidet Google für sich selbst, was doppelt ist und was nicht und das auch gegen Deinen Willen oder Deiner gut geglaubten Maßnahmen. Google traut generell keinem Webseiten Betreiber (und ich traue Google nicht) und entscheidet nach eigenen Gutdünken.

Ob ein Noindex wirklich dazu beiträgt, dass Google einen wirklichen doppelten Content nicht doch in die Bewertung miteinbezieht, lasse ich an der Stelle mal offen. Egal, was Du machst, um einen vermeintlich schädlichen Content vor Indexierung auszuschließen, überlege Dir diesen Schritt gut und am besten 3x!
QUIC ist Google's neuer Turbo für noch mehr Server Speed. Noch schneller ist QUIC mit Turbo UND Lachgaseinspritzung. Mit QUIC + NOS kann Deine Webseite fliegen.

supervisior
PostRank 8
PostRank 8
Beiträge: 968
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 21.12.2018, 10:51

Hier nochmal ein Nachtrag zu meinem vorangegangenen Thread und weil mich der Titel dieses Themas angeregt hat der Sache aus persönlichem Interesse auf den Grund zu gehen.

Egal ob Google oder Bing und egal, ob eine Seite eine noindex oder nofollow Definition besitzt, beide Suchmaschinen scheren sich einen Teufel drum, was da definiert ist. Solche Seiten werden trotzdem ge-crawled. Diese Seiten mögen dann vielleicht nicht in den Index gelangen, aber die Frage, ob solche Seiten nicht trotzdem in die Bewertung einfließen, bleibt unbeantwortet!

Nachdem ich aus eigenen Gründen, um doppelten Content aus Sichtweise von Google & Co. zu verhindern, entsprechende Seiten mit noindex definiert habe, treibe ich es testweise mal auf die Spitze, um zu sehen, was passiert, bzw. wie Google darauf reagiert, weil ich diese Seiten jetzt mit einem 403 Header versehen habe, wenn Google darauf zugreift. Wenn Google demnächst in der Search Console moniert, dass Google keinen Zugriff auf diese Seiten hat, kommen mir wirklich Bedenken auf, ob Google sich an solche Vorgaben hält...!
QUIC ist Google's neuer Turbo für noch mehr Server Speed. Noch schneller ist QUIC mit Turbo UND Lachgaseinspritzung. Mit QUIC + NOS kann Deine Webseite fliegen.

arnego2
PostRank 9
PostRank 9
Beiträge: 1502
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag von arnego2 » 21.12.2018, 13:42

supervisior hat geschrieben: Diese Seiten mögen dann vielleicht nicht in den Index gelangen, aber die Frage, ob solche Seiten nicht trotzdem in die Bewertung einfließen, bleibt unbeantwortet!
Wie so vieles bei den Suchmaschinen.
Google selbst sagt das es keinen 100% Schutz gibt da sie den Link von einer anderen Webseite abgreifen könnten.
Arnego2 <Web & Content>

supervisior
PostRank 8
PostRank 8
Beiträge: 968
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 21.12.2018, 14:26

arnego2 hat geschrieben:
supervisior hat geschrieben: Diese Seiten mögen dann vielleicht nicht in den Index gelangen, aber die Frage, ob solche Seiten nicht trotzdem in die Bewertung einfließen, bleibt unbeantwortet!
Wie so vieles bei den Suchmaschinen.
Google selbst sagt das es keinen 100% Schutz gibt da sie den Link von einer anderen Webseite abgreifen könnten.
Da magst irgendwo schon recht haben, aber wenn im Header ein noindex definiert ist, dann bedeuet das nach meinem Verständnis, dass es keine Ausnahme gibt. noindex == noindex und nicht nonidex -> kommt drauf an noindex.

Das mit dem noindex ist ja auch nur ein Beispiel von vielen, woran sich Google nicht hält.
QUIC ist Google's neuer Turbo für noch mehr Server Speed. Noch schneller ist QUIC mit Turbo UND Lachgaseinspritzung. Mit QUIC + NOS kann Deine Webseite fliegen.

elmex
PostRank 9
PostRank 9
Beiträge: 1028
Registriert: 03.05.2005, 10:09

Beitrag von elmex » 21.12.2018, 18:38

domain/page/1

ist auch was ganz anderes als

domain/pfad/?page=1

Das erste ist "irgendein Pfad", das zweite ist ein URL Parameter namens "page"

Daher bist du bei den Parametern völlig falsch unterwegs. Denn die genannten URLs enthalten keine...

supervisior
PostRank 8
PostRank 8
Beiträge: 968
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 21.12.2018, 19:26

elmex hat geschrieben:domain/page/1

ist auch was ganz anderes als

domain/pfad/?page=1

Das erste ist "irgendein Pfad", das zweite ist ein URL Parameter namens "page"

Daher bist du bei den Parametern völlig falsch unterwegs. Denn die genannten URLs enthalten keine...
Kann es sein, dass Du da falsch liegst?

domain/page/1 == mod rewrite aus domain/pfad/?page=1
QUIC ist Google's neuer Turbo für noch mehr Server Speed. Noch schneller ist QUIC mit Turbo UND Lachgaseinspritzung. Mit QUIC + NOS kann Deine Webseite fliegen.

elmex
PostRank 9
PostRank 9
Beiträge: 1028
Registriert: 03.05.2005, 10:09

Beitrag von elmex » 21.12.2018, 19:55

@supervisior
Und was weiss Google davon, dass du intern rewritest?! Normal nichts :D
Mit Rewrite "versteckt" man ja üblicherweise die Parameter vor der Suchmaschine, oder?

supervisior
PostRank 8
PostRank 8
Beiträge: 968
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 21.12.2018, 22:43

Na sag ich doch die ganze Zeit. Ob das jetzt eine umgeschriebene URL ist oder nicht doesn't matter und das egal ob Google oder umgeschrieben oder nicht. Der Punkt ist doch und verweise auf meinen ersten Thread, wie der Themenstarter darauf kommt, dass es sich um doppelten Content handeln würde, wenn es eine Pagination gibt, die ja eigentlich keinen doppelten Content haben.
QUIC ist Google's neuer Turbo für noch mehr Server Speed. Noch schneller ist QUIC mit Turbo UND Lachgaseinspritzung. Mit QUIC + NOS kann Deine Webseite fliegen.

supervisior
PostRank 8
PostRank 8
Beiträge: 968
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 23.12.2018, 09:51

supervisior hat geschrieben: Nachdem ich aus eigenen Gründen, um doppelten Content aus Sichtweise von Google & Co. zu verhindern, entsprechende Seiten mit noindex definiert habe, treibe ich es testweise mal auf die Spitze, um zu sehen, was passiert, bzw. wie Google darauf reagiert, weil ich diese Seiten jetzt mit einem 403 Header versehen habe, wenn Google darauf zugreift. Wenn Google demnächst in der Search Console moniert, dass Google keinen Zugriff auf diese Seiten hat, kommen mir wirklich Bedenken auf, ob Google sich an solche Vorgaben hält...!
Warum war das schon vorher klar? Wie zu erwarten, meckert Google jetzt in der Search Console, dass man keinen Zugriff mehr hat, weil ich Google einen 403 vor die Nase gesetzt habe. Was soll der Mist? Jetzt fehlt nur noch eine Abwertung....!
QUIC ist Google's neuer Turbo für noch mehr Server Speed. Noch schneller ist QUIC mit Turbo UND Lachgaseinspritzung. Mit QUIC + NOS kann Deine Webseite fliegen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag