SEO und Cyber Security

Kamillo Kluth  Kamillo Kluth in OnPage SEO am 14. Juni 2019

Warum sich SEOs auch mit Website-Sicherheit befassen sollten

Cyber Security ist auch SEO Thema. Sind Webseite oder Online-Shop durch Angriffe aufgrund zu weniger Sicherheitsmaßnahmen mehrere Tage nicht erreichbar, kann das neben dem Rückgang von Besuchern und Einnahmen auch Einbußen für das vorhandene Google-Ranking bedeuten! In diesem Artikel erfahren Sie, welche Gefahren für Ihre Rankings im Web lauern.

Vier Roboter sind auf der Abbildung zu SEO & Cybersecurity zu sehen

Welche Gefahren lauern für SEOs und Webseitenbetreiber?

Sicherheitslücken können direkten Einfluss auf vorhandene Rankings haben!
Durch den Ausfall der unternehmerischen Webseite und die Kosten der Datenrettung und Wiederherstellung kann ein direkter finanzieller Schaden entstehen. Daneben wird das Vertrauen der Besucher beeinträchtigt und sie kommen oft kein weiteres Mal auf die Webseite.

In direktem Zusammenhang stehen die Auswirkungen auf Ihre vorhandenen Rankings. Es ist sehr wahrscheinlich, dass die Webseite organischen Traffic verliert und weniger Leads generiert. Google hat momentan in Deutschland und in Europa einen Marktanteil von ca. 90%. Wer bei Google verschwindet, verschwindet!

Was können die Folgen eines Hacker-Angriffs im Bereich SEO sein?

  • Ranking-Verluste
  • Traffic-Einbrüche
  • Reputationsschäden
  • Ausbleiben von Kundenanfragen
  • Umsatzrückgänge

Grafik zeigt SISTRIX Kurve mit Traffic-Verlust einer Webseite nach Hackerangriff

Quelle: Beispielhafter Traffic-Verlust einer Webseite nach Hackerangriff; SISTRIX.de.

Wenn Sie langfristig in Ihre Sichtbarkeit in der Suche investieren, in einem stark umkämpften Markt tätig sind oder stark auf den organischen Verkehr angewiesen sind, ist Wachsamkeit in puncto Sicherheit von entscheidender Bedeutung!

Wie wichtig es für Unternehmen ist, über die Suche gefunden zu werden:

Der Screenshot aus similarweb.com zeigt eine beispielhafte Traffic-Verteilung

Quelle: similarweb.com, 2019; beispielhafte Traffic-Verteilung.

Die beliebtesten CMS sind auch die am häufigsten attackierten

Die am häufigsten eingesetzten Content Management Systeme sind WordPress, gefolgt von Joomla, Drupal und Typo3. Naturgemäß sind es auch diese Systeme, die im Fokus von automatisierten Angriffen stehen.

Haben Sie selbst in der Vergangenheit Erfahrungen mit Hacker-Angriffen gemacht?

Zum Beispiel auf der eigenen Webseite oder auf Webseiten, die Sie betreuen? Wurde Ihr Online-Shop schon einmal „lahmgelegt“?

Ohne eigenes Verschulden auf die Blacklist

Laut aktueller Studie des Webhosters GoDaddy werden über 70% gehackter Webseiten für betrügerische Zwecke angegriffen. Inhalte werden gescrapt, Malware oder Phishing-Links verbreitet. Die attackierten Websites werden mit Spam überflutet und möglicherweise auf die schwarze Liste gesetzt.

Foto mit dem Motiv aus The Blacklist – Look who´s on the Blacklist

Quelle: Flickr.com vagueonthehow.

Etwa 10% der gehackten Webseiten kommen auf die Blacklist. Darüber hinaus fallen Sanktionen aufgrund eines Nicht-Erkennens oder Nicht-Handelns im Falle einer Hacker-Attacke hart aus.

Hat Google die Gefahr einer Seite für den Nutzer erkannt, bekommt diese keinen Traffic mehr.
Google muss sofort handeln, denn die Suchmaschine kann Nutzer nicht auf gefährliche Seiten schicken!

Was machen die Malicious Bots?

Laut einer aktuellen Symantec-Studie weisen ca. 9% aller Webseiten eine sehr große Sicherheitsanfälligkeit auf.

Ca. 20% der Bots durchforsten Websites zu schändlichen Zwecken, z. B.

  • zum Scraping von Inhalten,
  • zur Identifizierung von Schwachstellen,
  • zum Datendiebstahl,
  • oder zur Verbreitung von Spam.

Dem Bot ist es gleich, wie groß Ihre Website ist! Der Roboter geht nach Mustern vor. Sie orientieren sich an bestimmten Merkmalen wie dem Server bzw. an der eingesetzten Software, die eine Schwachstelle wahrscheinlich machen. Veraltete CMS-Versionen und unfertige Installationen sind beliebte Sicherheitslücken.

Die Hacker prüfen anhand von bekannten Pfaden (z.B. /phpMyAdmin/) welche Software eingesetzt wird. Darf der Bot eine solche URL aufrufen, werden mögliche Sicherheitslücken getestet, um Zugang zum Server zu erlangen. Also schon die (einigermaßen kreative) Änderung des Installationspfades bei der Einrichtung bringt etwas mehr Sicherheit.

In dieser ersten Phase prüft der Bot einige Dutzend URLs pro Minute und bleibt so unterm Radar – wird also nicht automatisch vom Server wegen zu vieler Anfragen gesperrt.

Bösartige Bots verursachen Crawl Errors

Schädliche Bots verwenden dieselbe Bandbreite und dieselben Server-Ressourcen wie ein legitimer Bot oder ein normaler Besucher. Wird massiv gecrawlt, könnte Ihr Server durch diese hohe Serverlast möglicherweise die Bereitstellung der Seiten ganz einstellen. Die Ladezeit ist außerdem nach wie vor ein wichtiges Ranking-Kriterium bei Google.

Auch legitime Bots können:

  • Bei der Serverlast Spitzen erzeugen, z.B. wenn viele neue Inhalte live gehen.
  • Auf Ihrer Website auf einen Fehler stoßen, welche z.B. eine Endlosschleife auslösen.

Es ist wichtig, die Serverstatistiken (Logfiles) regelmäßig auszuwerten.

SEO-Spam

Unter SEO-Spam fallen Content Scraping, schlechte Backlinks, Cloaking und weitere bekannte, negative SEO-Praktiken. Aber auch Malware kann in die selbige Kerbe hauen. Wo liegt hier genau das Problem für SEO?

Schlechte Nachbarschaft durch Content Scraping und Links von gefährlichen Webseiten

In einem von mir analysierten aktuellen Fall wurden Inhalte einer Unternehmenswebseite gescrapte und auf einer fremden Domain (irgendwo auf einem Server in Zentralafrika) veröffentlicht. Um keinen eigenen Content aufbauen zu müssen, bedienen sich die Spammer gerne der Inhalte anderer, gut rankender Webseiten. Ärgerlich, denn die Seitenbetreiber haben viel Fleiß und Mühe in die Content-Erstellung gelegt. Gescrapte Inhalte führen jedoch zu Duplicate Content (DC). Und dieser schwächt die eigene Webseite, Rankingverluste sind somit wahrscheinlich!

Zusätzlich wurden die im Content enthaltenen Links vom Spammer beibehalten. Die Unternehmensseite in Deutschland wurde also von der Spam-Seite aus Zentralafrika verlinkt. Verlinkungen von oder zu gefährlichen Webseiten schädigen die Reputation der eigenen Website, denn ca. 60 % des Google Rankings werden weiterhin durch externe Links bestimmt.

Der Spammer hat außerdem Cloaking betrieben und dem GoogleBot andere Inhalte geliefert als dem Nutzer. Dem GoogleBot wurden die gescrapten Inhalte der Unternehmensseite gezeigt, dem Nutzer entweder Fotozubehör oder pornografische Inhalte präsentiert.

Aufgefallen ist dieses Vorgehen bei einer routinemäßigen Backlinkanalyse, die ABAKUS für diese Unternehmensseite durchgeführt hat.

Bleiben Sie aufmerksam!

Es ist notwendig, technisch auf dem aktuellen Stand zu bleiben, denn die Angriffe werden nicht weniger. Nehmen Sie es nicht persönlich: Der Großteil der Hacker sucht lediglich „Wirtsseiten“, um z.B. über Google Geld zu verdienen oder an sensible Daten zu gelangen. Beachten Sie die Aktualisierungshinweise in Ihrem CMS!

Fazit

Was können Sie selber tun, um die Basis für die Cyber-Sicherheit Ihrer Webseite zu verbessern?

  • Nutzen Sie die Webmaster-Tools von Google oder Bing, dort finden Sie ggf. Informationen zu sicherheitsrelevanten Punkten.
  • Analysieren Sie die Logfiles Ihres Servers. Unregelmäßigkeiten (oft einfach Peaks) sollten genauer betrachtet werden.
  • Halten Sie Ihre eingesetzte Software (CMS, Plug-Ins, Themes usw.) aktuell!
  • Führen Sie regelmäßig eine Backlinkanalyse durch.
  • Prüfen Sie regelmäßig stichprobenartig auf Duplikate Ihrer Inhalte.

Lassen Sie einen erfahrenen SEO Ihre Webseite einmalig prüfen. Unsere Analyse ist die Bestandsaufnahme und Vorsorge Ihrer Website. Wir sind Mitglied des Hannover IT e.V. und beraten uns regelmäßig mit den Fachleuten des Netzwerkes über aktuelle Trends.

Kontaktieren Sie mich, wenn Ihre Seite bereits auffällig geworden ist und Rankingprobleme hat, die Sie sich nicht erklären können:
Telefon: 0511 300 325-12 oder E-Mail: kluth@abakus-internet-marketing.de

In der Regel lassen sich die Rankingverschlechterungen durch einen Hackerangriff wieder beheben, wenn schnell gehandelt wird.

Frage an unsere Leser: Ist Ihre Webseite oder Ihr Shop schon einmal attackiert worden?

 



Beitrag kommentieren

EINE ANTWORT HINTERLASSEN

Dein Kommentar wird vor der Freischaltung von einem Admin moderiert.



Kamillo Kluth

Über Kamillo Kluth

Geschäftsleiter
Kamillo Kluth ist Geschäftsleiter der ABAKUS Internet Marketing GmbH und beschäftigt sich schon seit über 15 Jahren mit Suchmaschinenoptimierung. Als SEO der ersten Stunde hat er zahlreiche bekannte Unternehmen beraten und zu besseren Rankings verholfen. Er ist ein Experte für Nutzerpsychologie und die technischen Feinheiten des Google-Algorithmus. Kamillo Kluth ist außerdem ein gefragter Dozent und Fachautor.
Alle Artikel von:

Verwandte Beiträge

Landingpage Optimierung für ein Google Ranking – 5 Tipps

Sie besitzen bereits Landingpages zur Leadgenerierung, aber es gibt Potential zur Verbesserung? Es liegt am fehlenden Traffic, Sie erreichen nicht Ihre Wunsch-Zielgruppe oder es fehlen schlichtweg die Anfragen? Ich möchte Ihnen gerne 5 Tipps aus der Praxis geben, wie Sie systematisch Ihre Leadgenerierung aus SEO Sicht verbessern können. Tipp 1: Werten Sie Ihre Website-Daten aus

> WEITERLESEN …

 
Mehr Leads über Google: 5 Schritte zur Leadgewinnung durch SEO

Die Leadgenerierung und Neukundenakquise stellt für so gut wie alle Unternehmen eine große Herausforderung dar, denn mit Ihr steht und fällt die Zukunft des Unternehmens. Wir zeigen Ihnen in 5 einfachen Schritten, wie Sie relevanten Content für Ihre Website erstellen können, der Ihre Leadgewinnung über Google ankurbelt. 1. Zielgruppe definieren Um neue Leads zu generieren,

> WEITERLESEN …

 
Featured Snippets in den Google Suchergebnissen
Featured Snippets in den Google Suchergebnissen

Featured Snippets ermöglichen dem Suchenden eine schnelle Beantwortung ihrer Suchanfrage. Für den Webseitenbetreiber hat die Anzeige aber nicht immer einen Vorteil. Wir erklären den Begriff Featured Snippets, was diese für Auswirkungen haben und wie Sie dafür sorgen können, dass Ihre Webseite zitiert wird. Was sind Featured Snippets? Es gibt drei verschiedene Arten von Featured Snippets

> WEITERLESEN …

 
Ist die Angabe der Lesedauer bei Artikeln im Web sinnvoll?

Auf einigen Webseiten werden die potentiellen Leser am Anfang des jeweiligen Artikels über die voraussichtliche Lesedauer des folgenden Textes informiert. Durch diese Zusatzinformation soll dem User die Entscheidung erleichtert werden, ob er den vorliegenden Artikel liest oder nicht. Quelle: www.welt.de Aus Usability-Sicht hat diese Angabe sowohl Vor- als auch Nachteile. Der Vorteil ist, dass dem

> WEITERLESEN …