Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Yoast Plugin funktioniert nach Host Umzug
Wie Inhaber von .de Domain herausfinden - Denic klappt nicht
Das geht meines Wissens nur über <meta name="robots" content="noindex"> im Head tag.Trafficjunk hat geschrieben: ich möchte alles an duplicated content vom Crawling ausschließen..
Wie kommst Du darauf, dass die Pagination Seiten doppelter Content wären? Wenn Du Inhalte hast, die sich über mehrere Seiten erstrecken und man dafür "blättern" muss, ist das doch kein doppelter Content. Mal angenommen es wäre so, dann wären das ja unnütze Seiten und führst Besucher in die Irre, was ich mir jetzt mal nicht vorstellen will.Trafficjunk hat geschrieben: Verursacht dadurch duplicated content.
ich möchte alles an duplicated content vom Crawling ausschließen..
Wie so vieles bei den Suchmaschinen.supervisior hat geschrieben: Diese Seiten mögen dann vielleicht nicht in den Index gelangen, aber die Frage, ob solche Seiten nicht trotzdem in die Bewertung einfließen, bleibt unbeantwortet!
Da magst irgendwo schon recht haben, aber wenn im Header ein noindex definiert ist, dann bedeuet das nach meinem Verständnis, dass es keine Ausnahme gibt. noindex == noindex und nicht nonidex -> kommt drauf an noindex.arnego2 hat geschrieben:Wie so vieles bei den Suchmaschinen.supervisior hat geschrieben: Diese Seiten mögen dann vielleicht nicht in den Index gelangen, aber die Frage, ob solche Seiten nicht trotzdem in die Bewertung einfließen, bleibt unbeantwortet!
Google selbst sagt das es keinen 100% Schutz gibt da sie den Link von einer anderen Webseite abgreifen könnten.
Kann es sein, dass Du da falsch liegst?elmex hat geschrieben:domain/page/1
ist auch was ganz anderes als
domain/pfad/?page=1
Das erste ist "irgendein Pfad", das zweite ist ein URL Parameter namens "page"
Daher bist du bei den Parametern völlig falsch unterwegs. Denn die genannten URLs enthalten keine...
Warum war das schon vorher klar? Wie zu erwarten, meckert Google jetzt in der Search Console, dass man keinen Zugriff mehr hat, weil ich Google einen 403 vor die Nase gesetzt habe. Was soll der Mist? Jetzt fehlt nur noch eine Abwertung....!supervisior hat geschrieben: Nachdem ich aus eigenen Gründen, um doppelten Content aus Sichtweise von Google & Co. zu verhindern, entsprechende Seiten mit noindex definiert habe, treibe ich es testweise mal auf die Spitze, um zu sehen, was passiert, bzw. wie Google darauf reagiert, weil ich diese Seiten jetzt mit einem 403 Header versehen habe, wenn Google darauf zugreift. Wenn Google demnächst in der Search Console moniert, dass Google keinen Zugriff auf diese Seiten hat, kommen mir wirklich Bedenken auf, ob Google sich an solche Vorgaben hält...!