Seite 1 von 1

Gehackt: Hunderte Fake URLs im Index und blockierte URLs in der robots.txt

Verfasst: 15.03.2020, 13:08
von Jaenerd
Hallo zusammen,

meine Homepage www.making-miles.com wurde am 11.3 gehackt. Zum Glück habe ich es relativ schnell mitbekommen. Habe alle mir möglichen Maßnahmen angewendet und den Angreifer jetzt hoffentlich von meinem Webspace bekommen.

Kurz was der Hack bewirkt hat:
Durchs Keyword Monitoring habe ich gemerkt, dass eine Top 1 Platzierung plötzlich auf Seite 2 gerutscht ist. Mit erschrecken musste ich feststellen das Title und Meta Description in den Serps aus asiatischen Zeichen bestand. Auf der betroffenen URL war aber nichts festzustellen. Title und MD waren völlig normal, nur in den Serps waren die asiatischen Zeichen.

Nach etwas Recherche bin ich drauf gekommen, dass anscheinend durch einen Hack der Google Bot redirected wird. Das hat aber anscheinend nur den Google Crawler betroffen denn ich konnte die Seite ganz normal öffnen. In der Search Console habe ich die Seiten prüfen lassen und Ja, Google wurde immer auf eine dubiose asiatische Seite gelenkt. Mist!

Dann habe ich meinen Webspace durchforstet und sofort einige auffällige Dateien feststellen müssen.

Dateien entfernt, Passwörter geändert, Malware Plugins drüber laufen lassen usw.... Anschließend konnte ich keine auffälligen Dateien mehr finden.

So das erste Problem.. Jetzt habe ich die Suchergebnisse, bei denen die asiatischen Schriftzeichen im Title und der MD vorkamen, von Google neu crawlen lassen. Bei den meisten problemlos möglich und nach kurzer Zeit, waren auch wieder der richtige Title und passende MD vorhanden.

Mit der site:www.making-miles.com Abfrage habe ich meine indexierten URLs geprüft. Von meinen ca 180 Seiten waren nun noch 9 Seiten mit asiatischen Zeichen in den Serps. In der Search Console kann ich diese URLs auch nicht prüfen lassen.

Eine dieser Seiten ist www.making-miles.com/koh-lanta/
Laut indexierung ist diese Datei durch die robots.txt blockiert. https://www.making-miles.com/robots.txt

Hier steht aber nichts drin. Im robots txt Tester der Search Console steht ebenfalls, dass /koh-lanta/ zugelassen ist. Also irgendwas stimmt hier nichts so ganz oder brauch das jetzt einfach bissl Zeit?

Wie gesagt betrifft das ca 9 meiner rund 180 Seiten. Leider ein paar trafficstarke. Habt ihr eine Idee warum diese durch die robots.txt blockiert werden?


Das zweite Problem
welches ich feststellen musste ist, dass rund 500 neue Seiten indexiert wurden, die sich nicht in der Sitemap befinden. Gecrawlt am Tag des Hacks. Wenn ich jetzt einen Live Test dieser URL mache, kommt ein 404er. Seite wurde also nicht mehr gefunden.
So soll es auch sein. Werden die URLs schnell verschwinden bzw kann ich das noch beschleunigen außer jede einzeln zu entfernen?

Vielen Dank für eure Hilfe.

Lg Max

Verfasst:
von

Re: Gehackt: Hunderte Fake URLs im Index und blockierte URLs in der robots.txt

Verfasst: 15.03.2020, 14:02
von Jaenerd
Update:
Fehler mit den "blockierten" URLs habe ich gelöst. Es hat gereicht eine neue robots.txt hinzuzufügen. Seiten waren jetzt crawlbar und landen hoffentlich bald wieder im Index

Re: Gehackt: Hunderte Fake URLs im Index und blockierte URLs in der robots.txt

Verfasst: 15.03.2020, 14:10
von arnego2
Hi
ganz schön hart.
Ich würde die betroffenen Seiten Umleiten und die Seiten etwas ändern, neu schreiben wenn du willst.
Wie hostest du denn?

Re: Gehackt: Hunderte Fake URLs im Index und blockierte URLs in der robots.txt

Verfasst: 15.03.2020, 14:12
von Jaenerd
Ja das war echt ein ganz schöner schock :-)

Also den Fehler mit den blockierten Seiten konnte ich lösen. Musste nur die robots.txt neu reinladen. Keine Ahnung warum :-)

Habe jetzt nur noch das Problem mit den vielen Fake URLs im index.

Re: Gehackt: Hunderte Fake URLs im Index und blockierte URLs in der robots.txt

Verfasst: 15.03.2020, 14:17
von arnego2
umleiten zu ähnlichen Themen oder besser neu schreiben. V. 2.0