Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Böser Fehler, dann crawlt Google die Seiten zwar nicht mehr, aber entfernt sie deshalb keineswegs aus dem Index. Per robots.txt kann man nur proaktiv eine Indizierung verhindern, sind die Seiten erstmal drin eignet sich dieser Schritt nicht zur Entfernung.Torsten.E hat geschrieben:Was ist wenn Du die Seiten in die robots.txt aufnimmst.
Keine Ahnung wie lange es dann dauert, bis G sie aus dem Index nimmt.
Wäre auch einfach, logisch und sinnvoll, aber leider funktioniert das nicht.Torsten.E hat geschrieben:Ohh - dachte dann nimmt Google diese wieder raus.