Googlebot erklärt

Marcel Sarman  Marcel Sarman in Online Marketing am 27. März 2025

Der Googlebot durchsucht das Web und sammelt für Google die benötigten Informationen, um daraus einen Suchindex zu erstellen, aus dem wiederum das Google Ranking generiert wird. Die beiden wichtigsten Googlebots sind:

  • Googlebot Smartphone: simuliert einen User auf einem mobilen Endgerät.
  • Googlebot Desktop: simuliert einen Desktop-Nutzer.

Der Googlebot Smartphone ist dabei der primäre Crawler: Der Mobile-First-Index bestimmt maßgeblich den Erfolg Ihrer Website.

Googlebot: Crawling, Indexierung und Ranking

Fachleute verstehen unter einem Crawler eine Software, die von einem Bot gesteuert, automatisiert das Internet durchsucht. Dabei speichert der Crawler Webseiten und extrahiert Links. Er nutzt Algorithmen, um zu entscheiden, welche Seiten er in welcher Häufigkeit crawlt. Der Googlebot ist der  spezielle Crawler von Google. Das Google Ranking entsteht dabei in drei Stufen:

  1. Crawling: Die Googlebots durchsuchen das Internet nach neuen Seiten, verarbeiten diese und fügen sie dem Suchindex hinzu. Die Bots crawlen Seiten in bestimmten Zeitabständen mehrfach, um Änderungen zu erfassen. Dabei folgen sie den Links und springen so von Website zu Website. So finden sie neue und aktualisierte Inhalte, die sie dem Suchindex hinzufügen. Googlebots nutzen die Sitemap und die robots.txt-Datei, um effizient zu crawlen. Bots crawlen gut erreichbare und regelmäßig erneuerte Seiten dabei häufiger.
  2. Indexierung: Die beim Crawling gefundenen Seiten werden bei der Indexierung gespeichert und analysiert. Der Googlebot bewertet anhand von Signalen wie Relevanz, Qualität und Aktualität die Inhalte Ihrer Seite. Danach entscheidet Google, ob die Seite in den Google-Index kommt oder nicht. Google prüft auf Duplikate und die Einhaltung von inhaltlichen Mindeststandards. Der Googlebot ruft die Inhalte einer Seite ab und rendert die Seite. Er führt gefundenes JavaScript aus und sieht die Website dann so, wie User sie auch sehen.
  3. Ranking: Der komplexe Google-Algorithmus bewertet die indexierten Seiten. Viele verschiedenen Qualitätsfaktoren wie Inhalt, technische Umsetzung, Ladezeit, Backlinks oder Aktualität finden dabei Berücksichtigung. Anschließend erscheinen die Seiten dann in einer Reihenfolge sortiert auf den Google Suchergebnisseiten (SERPs).

Googlebot - Infografik - Crawling - Indexierung - Ranking

Für den Googlebot optimieren

Sorgen Sie dafür, dass der Googlebot Ihre Seite regelmäßig crawlt und unterstützen sie ihn durch folgende Maßnahmen:

  • XML-Sitemaps nutzen: Reichen Sie eine Sitemap ein und legen Sie die zu crawlenden bzw. zu indexierenden Seiten fest. Viele CMS verfügen über Erweiterungen oder Plugins, die automatisch Sitemaps generieren. In der XML-Sitemap finden die Bots nicht nur die URLs, sondern auch zusätzliche in den Metadaten enthaltene Informationen über die jeweiligen Seiten.
  • gute interne Verlinkung: Erleichtern Sie den Bots das Finden Ihre Unterseiten durch interne Verlinkungen.
  • korrekte robots.txt: Steuern Sie mit der robots.txt-Datei das Crawling Ihrer Website-Inhalte. Über Anweisungen teilen Sie dem Bot mit, welche Seiten gecrawlt bzw. nicht gecrawlt werden sollen Checken Sie Ihre robots.txt regelmäßig auf Korrektheit. Die robots.txt-Datei regelt die Crawlerbesuche auf Ihrer Website und verhindert so eine Überlastung mit Anfragen. Mit robots.txt-Regeln verwehren Sie den Crawlern den Zugriff auf bestimmte Seiten, um den Fokus auf wichtigere Bereiche Ihrer Website zu lenken. Mit der robots.txt schließen Sie für Google private Seiten (Login-Bereich), duplizierte Seite und irrelevante Seiten aus. Im SEO DIVER sehen Sie im Dashboard bei Klick auf das Dokumenten-Icon die Veränderungen Ihrer robots.txt-Datei im Zeitverlauf. Registrierte Nutzer bekommen nach Einstellung eines Alerts bei Änderung der robots.txt eine E-Mail vom SEO DIVER.

 

robots_txt SEO DIVER

 

  • übersichtliche Website-Struktur: Eine gute Struktur vereinfacht das Crawling.
  • keine fehlerhaften ausgehenden Links: Vermeiden Sie, dass die Crawler kaputten Links folgen und dann auf einer Fehlerseite landen: Checken Sie daher  regelmäßig Ihre ausgehenden Links. Nutzen Sie unseren Broken Link Checker, um Ihre ausgehenden Links zu überprüfen.
  • begrenzte Anzahl an Redirects: Bereinigen Sie mehrfache Weiterleitungen, die den Crawlern nur unnötige Arbeit bescheren. Kontrollieren Sie daher die Weiterleitungen in Ihrer .htaccess-Datei.
  • regelmäßige Kontroll-Crawls: Crawlen Sie Ihre Seiten regelmäßig mit SEO Tools und korrigieren Sie auftretende Fehler.
  • Robots-Meta-Tags verwenden: Fügen Sie Robots-Meta-Tags in den Head Ihrer Website ein, um zu steuern, wie einzelne Seiten gecrawlt, indexiert oder angezeigt werden sollen. Mit seitenspezifische Anweisungen (noindex) teilen Sie den Bots mit, welche Seiten gecrawlt werden dürfen (oder nicht). Mit noindex verhindern Sie die Indexierung Ihrer Seite, während Sie mit nofollow die Verfolgung der ausgehenden Links deaktivieren.
  • alt-Tags und strukturierte Daten hinzufügen: Erleichtern Sie dem Googlebot die Arbeit und fügen Sie alt-Tags für Ihre Grafiken und strukturierte Daten für Inhalte hinzu.
  • Mobilfreundlichkeit: Optimieren Sie die mobile Version Ihrer Website, damit vom Googlebot Smartphone indexiert zu werden.

Googlebot: Indexierung beantragen

Gehen Sie in der Google Search Console auf Indexierung-Seiten. Sie sehen nun die Gesamtzahl Ihrer indexierten Unterseiten. Laden Sie sich oben rechts unter EXPORTIEREN eine Übersicht aller indexierten Seiten runter. Checken Sie, wann der Googlebot Ihre jeweiligen URLs zuletzt gecrawlt hat. Geben Sie oben eine URL zur erneuten oder erstmaligen Indexierung ein. Normalerweise crawlt der Googlebot dann innerhalb weniger Stunden Ihre eingereichte Seite.

Verweildauer Google Analytics

Fazit

Der Googlebot bildet die Basis der Google-Suchmaschine und entscheidet über die Indexierung Ihrer Website. Erleichtern Sie dem dem Bot durch gezielte Maßnahmen das Crawling und die Indexierung, so verbessern Sie Ihre Google Rankings.

Anzeige


Beitrag kommentieren

EINE ANTWORT HINTERLASSEN

Ihr Kommentar wird vor der Freischaltung von einem Admin moderiert.



Marcel Sarman

Über Marcel Sarman

IT-Abteilung

Marcel Sarman betreut die ABAKUS Website und entwickelt sie weiter. Er ist unser Experte für HTML5, CSS3 und WordPress und schreibt Beiträge für unsere Seite.
Alle Artikel von:

Verwandte Beiträge

SEO für Pressemitteilungen

Mit einer Pressemitteilung (PM) kommunizieren Sie Neuigkeiten rund um Ihr Unternehmen. Eine gelungene Pressemitteilung ist gut zu lesen, informativ und erregt Aufmerksamkeit. Befolgen Sie die folgenden Tipps, um neue Links zu generieren, bessere Google Rankings zu erreichen und die Online-Sichtbarkeit Ihrer Firma zu stärken. Gründe für Pressemitteilungen Optimaler Zeitpunkt zur Veröffentlichung von Pressemitteilungen Passender Schreibstil

> WEITERLESEN …

 
Personalisierung der Google-Suchergebnisse

Bestimmt ist es Ihnen schon aufgefallen: Sie erhalten andere Suchergebnisse als Ihre Kollegen und die SERPs  auf Ihrem Privat-PC unterscheiden sich von denen auf Ihrem Dienst-PC. Das liegt an der Personalisierung der Google Suchergebnisse. Personalisierung bedeutet Anpassung der Suchergebnisse an den Nutzer. Jeder erhält ein anderes, aber meist ähnliches Suchergebnis.  Doch wie sorgt Google dafür,

> WEITERLESEN …

 
Single-Page Websites für Suchmaschinen optimieren

Ein Onepager bzw. eine Single-Page Website besteht nur aus einer einzigen Seite. Somit gibt es auch nur eine URL. Die unterschiedlichen Bereiche der Website sind dabei oftmals per Sprunganker erreichbar. Ein Onepager bringt spezielle SEO-Herausforderungen mit sich. Die begrenzte Inhaltsmenge und die fehlenden Unterseiten erschweren dabei gute Google Rankings. Eine Single-Page Website enthält alle Inhalte

> WEITERLESEN …

 
ABAKUS SEO-Jahresrückblick 2024 (Teil 2)

Juli: OpenAI Suchmaschine SearchGPT geht online Im Juli geht erstmals eine Testversion von SearchGPT online. SearchGPT nutzt Sprachmodelle zur Beantwortung von Benutzeranfragen. KI-Modelle und aktuelle Informationen von Bing liefern umfangreiche Antworten. SearchGPT hat den Anspruch, genaue Antworten in einem einzigen Text zu liefern und den Usern den Besuch mehrerer Seiten zu ersparen. Mit KI soll

> WEITERLESEN …

 

SEO Beratung

Kompetente SEO-Berater kümmern sich individuell um Ihre Seite und verbessern Ihre Suchmaschinenrankings. Persönliche Betreuung steht dabei für uns an erster Stelle.

SEO Berater
SEO Beraterin
SEO Berater

▶ SEO Beratung anfragen