Bei mir steigt die Zahl der "nicht ausgewählten" Seiten (Indexierungsstatus) fast täglich an, obwohl die Seite gar nicht so aggressiv ausgebaut wird. Es dürfte sich dabei nicht um neue Seiten handeln, die Google (noch) nicht im Index zeigen will.
Damit die Klicks gezählt werden können, wird nicht direkt nach Amazon.de verlinkt, sondern über eine Zwischenseite Namens "microtipp.html", gefolgt von diversen Variablen.
Nun könnte ich mir vorstellen, dass jede Variablen-Kombination für Google eine eigene Seite ist, und Google nur 1x "microtipp.html" aufnehmen will und deswegen alle anderen auf den Status "nicht ausgewählt" setzt.
Leider verstehe ich davon nicht wirklich viel und weiß auch nicht, wie ich das prüfen soll.
Wenn ich "microtipp.html" in der Robots.txt auf "nofollow" setze, würden die Seiten ja trotzdem gecrawled und indexiert, aber lediglich nicht für die Veröffentlichung auf Google freigegeben. Da ginge mir natürlich einiges an unnötiger Linkpower verloren.
Wie kann ich (bzw. mein Programmierer) Google dazu bewegen, dass er alle Seiten mit "microtipp.html" (unabhängig von den nachfolgenden Variablen) nicht berücksichtigt?
Ein rel="nofollow" im Link dürfte hier wohl auch kein Abhilfe schaffen, oder?
Oder kann man irgendwie prüfen, ob die Sache mit diesem X-Robots-Tag korrekt auf meiner Seite funktioniert und die "nicht ausgewählten" Seiten eine andere Ursache haben?
Zuletzt geändert von Bilderkiste.de am 29.01.2013, 00:54, insgesamt 1-mal geändert.
Verkaufe Versicherungs-Vergleiche-Domain www.binso.de - Bei Interesse bitte PN