BeitragMyrtus » 30.03.2016, 14:42 Wie (zuvor) gehackte 404 Seiten (15k) aus Index entfernen?
Meine Site wurde gehackt vor paar Wochen, habe darauf hin alles neu gemacht, neues Theme, neue Datenbank sogar neuer Webhost und ein Antrag auf erneute Überprüfung gestellt als alles sauber war. Einzig die vielen 404 Seiten wo der Spam drauf war sind ja noch da aber die kriege ich ja nicht weg?
Jetzt habe ich eine Antwort erhalten auf den Antrag:
"im Hinblick auf Ihren Antrag auf erneute Überprüfung hat Google Ihre Website auf Verstöße gegen die Google-Richtlinien für Webmaster überprüft. Gemäß den Ergebnissen dieser Überprüfung wurden einige der manuellen Maßnahmen gegen Ihre Website korrigiert oder aufgehoben. Auf der Seite "Manuelle Maßnahmen" in der Search Console können Sie nachsehen, welche manuellen Maßnahmen gegen Ihre Website bestehen. "
Wenn ich auf "Manuelle Maßnahmen" klicke um nachzuschauen steht da wieder oder immer noch:
Gehackte Website
Einige Seiten auf dieser Website wurden eventuell von Dritten gehackt, um Spam oder Links anzuzeigen. Sie sollten sofortige Maßnahmen ergreifen, um Ihre Website zu bereinigen und mögliche Sicherheitslücken zu beheben.
Dann stehen da Beispiel Urls (Die 404 Spam Seiten) diese Beispiel Urls sind immer noch im Index mit Titel und Meta Description aber wenn man drauf klickt kommt halt Error 404.
Kann mir bitte schnell jemand helfen und sagen was ich machen kann damit es weg geht alles? Per Robots alle 404 Seiten sperren? Bin echt amverzweifeln
Beitragparty » 30.03.2016, 23:56 Wie (zuvor) gehackte 404 Seiten (15k) aus Index entfernen?
Erstelle eine allgemeine Fehlerseite. 404error page. Etwa gleiches Layout und einen netten Satz wie:Ups, die Seite gibt nicht. Lass Deiner Kreativität freien lauf. Kannst Sie auch noindex,follow flaggen, ist aber nicht unbedingt notwendig. Auf den Server damit. Dann in die htaccess eine Errordocument Weiterleitung einrichten ( im Netz gibt es genug dazu ist nur eine codezeile). Fertig ab jetzt wird jede URL die es nicht gibt dorthin geleitet, sollte sofern kein gleichnamiges Dokument auf dem Server ist. Dann abwarten, die deindexierung dauert eben etwas.
BeitragVegas » 31.03.2016, 12:03 Wie (zuvor) gehackte 404 Seiten (15k) aus Index entfernen?
Wenn Du die Seiten die auf 404 laufen per Robots.txt sperrst, bleiben sie ewig im Index, wäre genau der falsche Schritt. Die per Hack eingeschleusten Seiten sind ja weg, also kein Grund zur Sorge. Das die Meldung nicht sofort aus der SC verschwindet ist normal und kein Hinweis auf ein fortbestehendes Problem.
Einfach abwarten, die 404er verschwinden mit der Zeit von selbst bzw. werden immer weniger. Das dauert, schadet aber in keiner Form. 410 statt 404 wäre wie Elmex schreibt eine Alternative, merklich schneller ist der Prozess dadurch aber nicht, denn Google behandelt 410 und 404 annähernd gleich.