registrieren registriertes Mitglied


Anzeige

Anzeige

Gehackt: Hunderte Fake URLs im Index und blockierte URLs in der robots.txt

Alles zu Domain-Umzug, Weiterleitungen und Robots diskutiert Ihr hier.
Jaenerd
PostRank 2
PostRank 2
Beiträge: 45
Registriert: 19.02.2015, 19:10

Beitrag Jaenerd » 15.03.2020, 13:08 Gehackt: Hunderte Fake URLs im Index und blockierte URLs in der robots.txt

Hallo zusammen,

meine Homepage www.making-miles.com wurde am 11.3 gehackt. Zum Glück habe ich es relativ schnell mitbekommen. Habe alle mir möglichen Maßnahmen angewendet und den Angreifer jetzt hoffentlich von meinem Webspace bekommen.

Kurz was der Hack bewirkt hat:
Durchs Keyword Monitoring habe ich gemerkt, dass eine Top 1 Platzierung plötzlich auf Seite 2 gerutscht ist. Mit erschrecken musste ich feststellen das Title und Meta Description in den Serps aus asiatischen Zeichen bestand. Auf der betroffenen URL war aber nichts festzustellen. Title und MD waren völlig normal, nur in den Serps waren die asiatischen Zeichen.

Nach etwas Recherche bin ich drauf gekommen, dass anscheinend durch einen Hack der Google Bot redirected wird. Das hat aber anscheinend nur den Google Crawler betroffen denn ich konnte die Seite ganz normal öffnen. In der Search Console habe ich die Seiten prüfen lassen und Ja, Google wurde immer auf eine dubiose asiatische Seite gelenkt. Mist!

Dann habe ich meinen Webspace durchforstet und sofort einige auffällige Dateien feststellen müssen.

Dateien entfernt, Passwörter geändert, Malware Plugins drüber laufen lassen usw.... Anschließend konnte ich keine auffälligen Dateien mehr finden.

So das erste Problem.. Jetzt habe ich die Suchergebnisse, bei denen die asiatischen Schriftzeichen im Title und der MD vorkamen, von Google neu crawlen lassen. Bei den meisten problemlos möglich und nach kurzer Zeit, waren auch wieder der richtige Title und passende MD vorhanden.

Mit der site:www.making-miles.com Abfrage habe ich meine indexierten URLs geprüft. Von meinen ca 180 Seiten waren nun noch 9 Seiten mit asiatischen Zeichen in den Serps. In der Search Console kann ich diese URLs auch nicht prüfen lassen.

Eine dieser Seiten ist www.making-miles.com/koh-lanta/
Laut indexierung ist diese Datei durch die robots.txt blockiert. https://www.making-miles.com/robots.txt

Hier steht aber nichts drin. Im robots txt Tester der Search Console steht ebenfalls, dass /koh-lanta/ zugelassen ist. Also irgendwas stimmt hier nichts so ganz oder brauch das jetzt einfach bissl Zeit?

Wie gesagt betrifft das ca 9 meiner rund 180 Seiten. Leider ein paar trafficstarke. Habt ihr eine Idee warum diese durch die robots.txt blockiert werden?


Das zweite Problem
welches ich feststellen musste ist, dass rund 500 neue Seiten indexiert wurden, die sich nicht in der Sitemap befinden. Gecrawlt am Tag des Hacks. Wenn ich jetzt einen Live Test dieser URL mache, kommt ein 404er. Seite wurde also nicht mehr gefunden.
So soll es auch sein. Werden die URLs schnell verschwinden bzw kann ich das noch beschleunigen außer jede einzeln zu entfernen?

Vielen Dank für eure Hilfe.

Lg Max

Anzeige von: