Nachfrage erzeugen als Ranking-Kriterium in der Suchmaschinenoptimierung

18. Dezember 2014

In den letzten Jahren dominierte im Bereich der Suchmaschinenoptimierung die Disziplin die bestehende Nachfrage in Form der Suchanfrage zu bedienen. In der Regel startete man mit einer Keyword-Recherche, um herauszufinden was Nutzer in einer Suchmaschine nachfragen. Man kombinierte die Erkenntnisse mit einer Wettbewerbsanalyse und bekam in der Regel eine gute Übersicht, wie die Nachfrage in seinem Marktsegment aussieht. Auch heute ist dieses Vorgehen eine Grunddisziplin in der Suchmaschinenoptimierung. Einzig der Denkansatz, sich stumpf auf die Ergebnisse der gewonnen Keywords zu konzentrieren, verblasst zunehmend. Vielmehr hat man verstanden, in Keyword-Sets, Keyword-Gruppen und den eigentlichen Absichten der Nachfragenden zu denken und seine Inhalte darauf abzustimmen.

Was jedoch bei der ganzen Konzentration auf das Bedienen der Nachfrage oft unterschlagen wird, ist ein Wandel im Mix der Rankingsignale. Google belohnt seit einigen Jahren auch das Erzeugen von Nachfrage. Die Initiatoren neuer Nachfrage sowie die Verursacher steigender Nachfrage werden honoriert.

Seiten die ausschließlich bestehende Nachfrage bedienen, so eine Annahme, nehmen nur. Seiten die Nachfrage erzeugen können, geben. Um deutlicher zu werden, reine SEO Projekte bedienen sich vom Nachfragekuchen, wohingegen Seiten die Produkte, Marken und Mehrwerte erstellen erzeugen Begehren, Nachfrage, Relevanz und Aufmerksamkeit. Dinge die Google in seinen letzten algorithmischen Anpassungen stets befürwortet hat.

Suchmaschinenoptimierung, im klassischen Sinne, lenkt bestehende Nachfrage auf das entsprechende Online-Angebot. Dieser Umstand wird oft auch von Verlagen unterschätzt, welche stark auf eine SEO-Strategie und dabei eine grundlegende Nachfrage am Markt schlecht oder gar nicht in ihre redaktionellen Pläne mit einfließen lassen. Auf der anderen Seite bedienen übertriebene SEO-News-Strategien ausschließlich aktuelle und sehr zeitnahe Nachfragebedürfnisse der Suchenden. Der Aspekt auch selbst, aufgrund einer herausragenden Reportage, einem umfassenden Dossier oder einer guten Hintergrundberichterstattung selbst zum Initiator neuer Nachfrage zu werden, fällt dabei ins Abseits. Zu kostspielig, zeitaufwendig und ressourcenbindend sind dann die Argumente für das Ausbleiben relevanter, sich unterscheidender Inhalte. Das Resultat ist dann oft nicht nur die fehlende Sichtbarkeit in der Websuche, sondern auch die Austauschbarkeit der Quelle für den Nutzer.

Die einfache Regel der Unersetzbarkeit durch das Schaffen von Inhalten, die zu einer steigenden Nachfrage oder gar neuer Nachfrage führen, ist ein Schlüsselfaktor zum Erfolg im Bereich der Suchmaschinenoptimierung. Dabei ist das aktive Bespielen anderer Kanäle wie Social-Media-, TV-, Radio-, Display- oder E-Mail-Marketing sowie die Steigerung des Engagements mit der Webseite von wesentlicher Bedeutung. Denn allein das Publizieren von herausragenden Inhalten ohne den Nutzer mit einzubinden und ohne einen Seeding- und Distributionsprozess  anzustoßen, führt in den wenigsten Fällen zu einem wirklichen Gewinn an Nachfrage.

Bei der Durchführung erfolgreicher Seeding- und Content-Distributionsstrategien kann man m.E. jedoch nicht mehr von SEO sprechen, vielmehr benötigt man eine gute Marken- und Produktstrategie mit all’ seinen Instrumenten des Push-Marketings um einen maximalen Erfolg für das “Schaffen von Nachfrage” zu erzeugen. Gute SEO-Konzepte müssen in Zukunft eine Strategie für das “Erzeugen (Geben)” und “Bedienen (Nehmen)” von Nachfrage entwickeln, um sich erfolgreich zu behaupten.

 


Diskrepanz zwischen indizierten Seiten und per XML Sitemap eingereichten Seiten in den Google Webmaster Tools

05. November 2014

Schicken Sie eine E-Mail mit dem Betreff „Analysiert meine XML Sitemap“ an seo-quickcheck@abakus-internet-marketing.de – Das Los entscheidet unter den ersten 15 eingegangenen E-Mails wessen XML Sitemap kostenlos analysiert wird!

Auf Google Webmaster Central wurde unlängst der Artikel „Best Practices for XML Sitemaps & RSS/Atom Feeds“ veröffentlicht. Darauf aufbauend möchte ich das Thema Steuerung der Indizierung und XML Sitemaps aufgreifen. Ich möchte Lösungsansätze aufzeigen, wenn es deutliche Unterschiede in der Anzahl der durch Google indizierten Seiten und den über die XML Sitemap eingereichten Seiten gibt. Außerdem schauen wir uns an, ob alle crawlbaren Seiten in der Sitemap zu finden sind.

 

1. Seiten, die in der Sitemap gelistet sind, aber nicht bei Google performen

Wenn wir einen deutlichen Unterschied in der Anzahl der indizierten Seiten feststellen, sollten wir der Ursache auf den Grund gehen. In meinem Beispiel wurden knapp 21.000 Seiten per XML Sitemap eingereicht und nur etwas mehr als 7.400 indiziert, was ca. 35 % entspricht. Mit dem unten beschriebenen Vorgehen können wir die Ursachen eingrenzen.

Um das vorab klarzustellen: Das hier ist kein Quick Win. Wir gehen ins Eingemachte!

Bei der Analyse der Domain haben sich mehrere Situationen gezeigt, die allesamt die Domain ausbremsen. Die Steuerung der Indizierung ist ein wichtiges und mächtiges Instrument, um eine Domain bei Google gut performen zu lassen.

xml-sitemap-1

Das Problem in unserem Beispiel ist, dass wahrscheinlich das von Google bereitgestellte Crawling-Kontingent verschwendet wird. Neue Produkte oder Kategorien werden nicht oder nicht so schnell, wie sie es verdienen, von Google indiziert. Wenn wir davon ausgehen, dass die nicht indizierten Seiten auch nicht bei Google ranken, haben wir einen großen Potenzialverlust.

 

A)  Google Webmaster Tools

Welche Daten stehen uns zur Verfügung, um dem Problem auf den Grund zu gehen? Die XML Sitemap haben wir natürlich. Wir wissen nur nicht, welche der eingereichten URLs nicht indiziert wurden. Da wir mit Google arbeiten, müssen wir auch Googles Daten nutzen. Die erste Adresse sind die Google Webmaster Tools.

Unter dem Punkt „Suchanfragen“ finden wir den Unterpunkt „Die häufigsten Seiten“. Dort können wir über den Filter einstellen, dass wir alle Quellen angezeigt bekommen wollen. Über diese Einstellungsänderung habe ich in meinem Beispiel noch einmal ca. 20 % mehr URLs gewinnen können. Zusätzlich drehen wir den Zeitraum auf das Maximum von drei Monaten.

xml-sitemap-2

Dann klicken wir auf „Tabelle herunterladen“. Da in meinem Office 2010 die Umlaute in den Google Webmaster Tools Exporten falsch ausgegeben werden, mache ich einen kleinen Umweg und öffne die exportierte CSV Datei im Texteditor und kopiere sie dann in eine leere Excel Datei in die Spalte A.

In Excel haben wir die Komma-separierten Daten in nur einer Spalte. Wir benötigen für unseren Zweck ausschließlich die URLs. Impressions, CTR usw. interessieren an dieser Stelle nicht.

Die erste Spalte markieren wir. Über den Reiter „Daten“ kommen wir in Excel zum Punkt „Text in Spalten“.

xml-sitemap-3

In drei Schritten können wir die Daten in separate Spalten schieben.

Wir wählen „Getrennt“.

xml-sitemap-4

Dann „Komma“.

xml-sitemap-5

Und schließlich „Standard“.

xml-sitemap-6

Klicken auf „Fertig stellen“ und haben nun die URLs in Spalte A.

Unsere zweite Quelle ist Google Analytics. Aus Analytics bekommen wir nur die URIs, also die Adresse ohne die Domain. Aus diesem Grund entfernen wir mit Suchen & Ersetzen den Domainnamen „http://www.example.com/“ gegen „/“ in unserem ersten Datensatz, dem aus den Google Webmaster Tools.

xml-sitemap-7

 

B)  Google Analytics

In Google Analytics kommen wir über den Punkt „Akquisition“ zu den Channels.

xml-sitemap-8

Wir benötigen den Channel „Organic Search“. Der anzuzeigende Zeitraum sollte sinnvoll gewählt werden.

xml-sitemap-9

Im Channel „Organic Search“ wählen wir als sekundäre Dimension „Zielseite“.

xml-sitemap-10

Nun wollen wir möglichst viele Daten bekommen, also stellen wir die maximale Zeilenzahl 5.000 ein. Sollte diese Zahl nicht ausreichen, können wir über die Adresszeile die Anzahl weiter hochschrauben.

xml-sitemap-11

Statt der 5.000 kann man z. B. 10.000 Zeilen einstellen und auf Enter drücken. Zu beachten ist, dass der Browser irgendwann schlapp macht. An diese Grenze kann man sich heran tasten.

Wenn die größtmögliche Anzahl an Seiten angezeigt wird, klicken wir oben links auf der Seite auf „Export“ und wählen unser Lieblingsformat. Für mich ist das XLSX.

xml-sitemap-12

In diesem Export finden wir im Sheet 2 „Datensatz1“ die URIs sowie andere Werte, die wir für unsere jetzigen Zwecke nicht benötigen. Spalte B „Zielseite“ kopieren wir und fügen sie in eine neue Excel Datei in Spalte B ein.

Dann kopieren wir die URIs aus dem Google Webmaster Tools Export an das Ende der Daten aus Google Analytics. Der Kopf der Tabelle (Zeile 1 „Seite“) muss dabei entfernt werden.

In meinem Beispiel habe ich 8.269 URLs aus den Google Webmaster Tools und 4.863 URLs aus Google Analytics. Nun markiere ich die Spalte und gehe über den Reiter „Daten“ zu „Duplikate entfernen“.

xml-sitemap-13

Wenn man wie oben beschrieben vorgeht, braucht man im aufpoppenden Menü nur auf „OK“ klicken. In meinem Beispiel wurden 9.187 eindeutige URLs gefunden.

 

C)  XML Sitemap in Excel

Jetzt wird es spannend. Wir machen die XML Sitemap in Excel auf, d. h., wir ziehen sie auf eine offene Excel Datei. Wenn Excel fragt, in welchem Format die Datei geöffnet werden soll, wählen wir die XML-Tabelle und klicken „OK“.

xml-sitemap-14

Eventuell erscheint ein Hinweis auf das verwendete Schema. Hier klicken wir einfach wieder „OK“.

Nun entfernen wir den Domainnamen aus der ersten Spalte mit Suchen und ersetzen, wie oben beschrieben. Die gesamte Spalte kopieren wir in die Excel Datei, in der schon die Daten aus Google Analytics und den Google Webmaster Tools zu finden sind. Die URLs aus der Sitemap fügen wir in Spalte A ein. Bitte zwischendurch immer wieder speichern.

Mit der bedingten Formatierung können wir jetzt die URLs ermitteln, die in der Sitemap sind, aber keinen Traffic über die organische Suche bringen. Wir markieren die Spalte A. Im Reiter „Start“ finden wir den Punkt „Bedingte Formatierung“. Hier wählen wir „Neue Regel…“

Dann wählen wir den Punkt „Formel zur Ermittlung der zu formatierenden Zellen verwenden“. Im Feld „Werte formatieren, für die diese Formel wahr ist“ geben wir „=A1=SVERWEIS(A1;B:B;1;FALSCH)“ ein – ohne die Anführungszeichen.

xml-sitemap-15

Dann klicken wir unten noch auf „Formatieren…“, wählen eine Farbe und klicken auf „OK“.

xml-sitemap-16

Nun sollten einige Zellen in Spalte A in der gewählten Farbe eingefärbt sein.

Im Anschluss markieren wir die erste Zeile der Tabelle und klicken im Reiter „Daten“ auf den Button „Filtern“.

xml-sitemap-17

Dann können wir im Kopf der Tabelle die Spalte A nach Farben sortieren. Hier wählen wir „Keine Füllung“.

xml-sitemap-18

Nur die Daten in Spalte A sind interessant. Die eingefärbten Zellen enthalten die URLs, die auch in Spalte B vorhanden sind. Es sind also Adressen, die sowohl in der Sitemap als auch in den Google Daten vorhanden sind. Mit diesen ist alles in Ordnung. (… puh)

Interessant sind die Zeilen, die nicht eingefärbt sind. Wieso hat Google sie nicht indiziert? In meinem Beispiel sind von knapp 21.000 eingereichten URLs nur ca. 4.700 bei Google sichtbar.

Ich habe verschiedene Ideen, was nicht stimmen könnte. Mein erster Ansatz ist Duplicate Content bzw. Near Duplicates.

Auch schon gesehen habe ich, dass URLs in der Sitemap stehen, die per robots Meta Tag auf „noindex“ gesetzt wurden. Die Google Webmaster Tools geben in diesem Fall keinen Fehler und keine Warnung aus.

Wie können wir – evtl. als Externer – herausbekommen, welche kanonischen URLs im Quelltext von mehreren tausend Seiten stehen?

Meine erste Wahl wäre der Screaming Frog SEO Spider. Hiermit kann man ganze Domains oder einfache Listen mit URLs crawlen lassen.

Da wir aber schon mit Excel arbeiten, nutzen wir die SEO Tools for Excel von Nils Bosma, um die benötigten Daten zu holen.

Jetzt wird es kurz etwas lame. Ziel ist es, die URLs in URLs zu verwandeln. Dazu brauchen wir am Anfang der Adresse wieder den Domainnamen. Wer einen eleganteren Weg weiss, kann diesen gerne nutzen.

Wir nehmen die Liste der URLs, die nicht farbig markiert wurden, machen ein neues Sheet auf und kopieren diese Liste in Spalte B.

Dann schreiben wir den Domainnamen in Spalte A (http://www.example.com) und drücken Enter. Wenn wir die Zelle nun markieren, können wir die folgenden Zellen mit dem gleichen Inhalt versehen.

Dazu bewegen wir den Mauszeiger über die rechte untere Ecke der markierten Zelle, bis das kleine schwarze Kreuz erscheint.

xml-sitemap-19

Mit gedrückter linker Maustaste ziehen wir den Cursor so weit runter, wie die Liste in Spalte B lang ist.

xml-sitemap-20

Nun kopieren wir die Spalte A und B gemeinsam und fügen sie in den Texteditor ein. Die Werte aus A und B sind durch Tabs getrennt. Markieren und kopieren wir einen davon. Mit [Strg] + [r] (in z. B. Ultra Edit) bzw. [Strg] + [h] (im Windows Editor) kommen wir in das „Suchen und Ersetzen“ Menü. Hier ersetzen wir den Tabstop gegen nichts. Im Ersetzen-Feld stellen wir sicher, dass auch keine Leerzeichen vorhanden sind.

xml-sitemap-21

So haben wir wieder eine Liste von URLs, die gecrawlt werden kann.

Diese kopieren wir wieder nach Excel. Nun kommen die SEO Tools for Excel zum Einsatz. Wir wollen als erstes prüfen, ob falsch kanonisierte URLs in der XML Sitemap vorhanden sind.

In Spalte A sind unsere URLs, in Spalte B (Zelle B2 muss markiert sein) führen wir die Prüfung der Canonical Tags durch. Dazu gehen wir in Excel über den neuen Reiter „SEO Tools“ auf den Menüpunkt „Onpage“ und wählen dort „HtmLCanonical“.

xml-sitemap-22

Solche Crawls mache ich grundsätzlich auf einem Zweitrechner, um ungestört weiterarbeiten zu können.

Wir werden gefragt, welche URL geprüft werden soll. Wir markieren Zelle A2 und klicken auf „OK“.

xml-sitemap-23

Entweder bleibt die Zelle leer, was heißt, dass kein Canonical Tag vorhanden ist oder die kanonische URL wird angezeigt. Dann markieren wir die Zelle B2 und ziehen wieder das kleine schwarze Kreuz nach unten, bis an das Ende der Liste.

Der Grund für die Prüfung der kanonischen URLs ist, dass ein Canonical wie eine Weiterleitung gewertet wird. Weiterleitungen haben in der XML Sitemap nichts zu suchen. Ebenso URLs, die per Canonical auf eine zweite URL verweisen.

Wenn alle URLs geprüft wurden, können wir über die bedingte Formatierung (wie oben beschrieben) oder auf eine andere Art prüfen, ob die URLs in Spalte A und die kanonischen URLs in Spalte B identisch sind. Man kann auch statt der bedingten Formatierung in der dritten Spalte die Formel „=WENN(ISTFEHLER(FINDEN(A2;B2;1));0;1)“ eingeben und dann nach 1 (stimmt überein) bzw. 0 (stimmt nicht überein) filtern.

Uns interessieren die kanonischen URLs, die nicht mit der URL in Spalte A übereinstimmen. Diese müssen näher untersucht werden.

Nach gleichem Muster prüfen wir den robots Meta Tag der Seiten aus der Liste. Ein „noindex“ darf bei URLs, die in der XML Sitemap stehen nicht vorkommen. Dazu nehmen wir die Liste der URLs, bei denen wir den Canonical geprüft haben und fragen den robots Meta Tag ab.

xml-sitemap-24

In meinem Beispiel fand ich fast 5.000 URLs, die auf „noindex, follow“ standen. Die Frage, ob diese Seiten indiziert werden sollen oder nicht, muss mit dem Seitenbetreiber geklärt werden. Wenn sie nicht indiziert werden sollen, also nicht in den Google Ergebnissen auftauchen sollen, müssen sie auf jeden Fall aus der XML Sitemap entfernt werden.

Neben den falsch kanonisierten URLs und den falschen robots Meta Tags sollten wir uns auch um Duplikate bzw. Quasi-Duplikate kümmern. Wenn Duplikate oder Quasi-Duplikate bestehen, möchte Google nur eine dieser URLs indizieren. Bei den meisten Duplikaten fehlt dem User der Mehrwert. Zur Prüfung haben wir in Excel mit den SEO Tools verschiedene Möglichkeiten.

Die datenmäßige Größe der Seiten (identische Größe in kb) kann z. B. ein Hinweis auf (quasi) Duplikate sein. Auch der verwendete Title kann Aufschluss geben. Das gleiche gilt für doppelte Meta Descriptions. Die beiden letzten Punkte können auch über die Google Webmaster Tools geprüft werden.

Wie wir das Problem mit Quasi-Duplikaten beheben muss von Fall zu Fall entschieden werden.
Ein Bsp. aus der Praxis: Wir haben einen Artikel in verschiedenen Farben. Als der Artikel eingestellt wurde, wurde für jede Farbvariante eine eigene Produktseite angelegt. Googles Empfehlung ist für solche Fälle, nur einen Artikel anzulegen und die Farben als Varianten einzupflegen. Der User hat dann die Möglichkeit per Pull Down Menü die Farben zu wählen.

Eine weitere Möglichkeit, aber ehrlich gesagt nur eine Krücke, wäre die Kanonisierung auf ein Master-Produkt. Davon rate ich aus verschiedenen Gründen ab.

Da wir die Seite für den User / Kunden machen, sollten wir uns für die Lösung entscheiden, die dem User am meisten bringt. Stichwort Usability. Das ist die erste Lösung mit dem Pull Down Menü. Der User muss so nicht x neue Seiten laden, um die anderen Farben zu sehen.

Solange Excel noch die kanonischen URLs prüft, sollten wir uns aber die Liste der URLs einmal genauer ansehen. Wenn wir die Adressen alphabetisch sortieren, entdecken wir evtl. bestimmte Bereiche oder Kategorien / Produkte, die per XML Sitemap eingereicht, aber nicht indiziert werden. Hier lohnt es sich genauer zu schauen. D. h. wir rufen die Seiten auf, prüfen den Inhalt der Seite, prüfen, ob die Seite evtl. doch von Google gecached ist und verschaffen uns so einen Überblick.

Besonders wenn die XML Sitemap vom System generiert wurde, ohne dass sich jemand die Details angeschaut hat, können sich Fehler einschleichen.

In meinem Beispiel habe ich nicht nur falsch kanonisierte URLs oder gesperrte URLs, sondern auch Quasi-Duplikate gefunden, von denen der Seitenbetreiber selbst der Meinung war, dass sie nichts im Google Index zu suchen haben. So konnten in drei Schritten mehrere tausend Seiten entschärft, d. h. für Google gesperrt / gelöscht werden.

Solange eine URL keinen 404 oder 410 liefert, bleibt sie in Googles Index. Also haben wir die URLs etwas modifiziert. Schon wenn ein Zeichen in der URL geändert wird, ist es für Google eine komplett neue Adresse. Diese werden per robots Meta Tag auf „noindex, nofollow“ gesetzt. Würden wir nur „noindex“ wählen, würde Google die Seiten immer noch prüfen und den Links folgen. Das „noindex“ heißt nur, dass sie nicht in den Suchergebnissen auftauchen sollen. Da Google wirklich jede URL crawlen und den Links in Dokumenten folgen will, um mehr Seiten zu finden, muss die Anweisung für den Googlebot eindeutig sein. Der Vollständigkeit halber sperren wir also das neue URL Muster auch in der robots.txt. Die alten URLs werden in diesem Fall nicht weitergeleitet. Sie müssen eine Header Meldung 404 bzw. 410 liefern. In diesem Fall ist 410 (Gone) die bessere Wahl.

Wenn wir die neuen URLs nur in der robots.txt sperren würden und im robots Meta Tag „index, follow“ stünde, würde Google die Seite wahrscheinlich indexieren. Google will alles wissen. Wissen ist Macht.

Bei Magento und auch bei JTL Shops u. a. haben wir schon große Probleme mit der fassettierten Navigation gehabt. Über die fassettierte Navigation wurden unzählige Quasi-Duplikate erzeugt. Es gibt immer noch Leute, die denken, dass man mit vielen URLs auch besonders gut rankt. Dem ist aber nicht so. Wenn wir einen Shop mit einer fassettierten Navigation haben, sollten wir die verschiedenen Ebenen nach und nach mit Verstand freischalten. Der Shop sollte nicht in allen Instanzen indizierbar sein. Die Produkte müssen natürlich für den Googlebot freigegeben werden. Die fassettierte Navigation bietet aber so viele Varianten, dass wir viel Crawling Kontingent verbrennen würden, wenn wir alle Ebenen frei gäben.

Wir vermeiden Quasi-Duplikate und fokussieren uns auf gute Verteilerseiten. Diese Verteilerseiten (Kategorien, Subkategorien) haben durch die interne Verlinkung und Position in der Shop-Hierarchie ausreichend Kraft für ein Top Ranking.

Ein wichtiges Mittel in diesem Zusammenhang ist die Parameterbehandlung in den Google Webmaster Tools (Menüpunkt Crawling/ URL-Parameter). Alle Sortierparameter sollten entsprechend eingestellt werden.

xml-sitemap-25

 

2. Seiten, die crawlbar sind, aber nicht in der XML Sitemap gelistet werden

Nach diesem kurzen Ausflug kümmern wir uns wieder um unsere XML Sitemap. Mit Screaming Frog oder Strucr oder Xenu crawlen wir die Domain. Wobei ich persönlich Xenu nicht mehr nutze, seitdem ich Screaming Frog habe. Screaming Frog ist einfach komfortabler – was auch seinen Preis hat – und zwar einen jährlichen. Screaming Frog ist aber leider bei größeren Seiten irgendwann überfordert. Um Speicher zu sparen, sollte man genau einstellen, was man gecrawlt haben will. Man kann sich auf HTML Dokumente beschränken, externe Links außen vor lassen usw. Für große Seiten nimmt man Strucr.

Die Frage, die wir uns beantworten wollen ist, welche Seiten sind crawlbar und nicht in der Sitemap enthalten? Eine Webseite und ihre XML Sitemap müssen konsistent sein.

Das Ergebnis des Crawls halten wir gegen die Sitemap. Das machen wir nach dem gleichen Muster, wie den Abgleich zwischen Sitemap und den URLs aus Google Analytics / den Google Webmaster Tools. So identifizieren wir alle URLs, die bisher in der Sitemap nicht berücksichtigt wurden. Denkbar ist, dass es in einem Shop einen Service- oder Infobereich gibt, der bisher nicht in die Sitemap aufgenommen wurde o.ä. Solche Seiten, die einen Mehrwert für den User bieten, sollten unbedingt in die Sitemap aufgenommen werden. Auch, wenn das Angebot im Shop eher statisch ist, können über Infoseiten mehrwertige Inhalte rund um die Produkte geschaffen werden. Und grundsätzlich gilt: Wenn eine Seite es wert ist, sie zu erstellen, ist sie es auch wert gefunden zu werden. Die XML Sitemap hilft dabei ein Stück weit.

 

3. Fazit

Mit den oben beschriebenen Maßnahmen haben wir innerhalb von drei Monaten eine Steigerung im Traffic von knapp 20 % erreicht. Die Anzahl der indizierten Seiten ist im selben Zeitraum um ca. 16 % gefallen.

Es wurden keine weiteren SEO Maßnahmen unternommen. Somit lässt sich eine Verfälschung des Ergebnisses nahezu ausschließen.

 

Über den Autor:

kamillo-kluth-abakus-internet-marketing
Seit 11 Jahren ist Kamillo Kluth für ABAKUS Internet Marketing tätig. In dieser Zeit hat er maßgeblich die langfristigen Strategien für die Suchmaschinenoptimierung im Unternehmen mitbestimmt. Aktuell ist er der Leiter der Abteilung Suchmaschinenoptimierung bei ABAKUS und somit am Puls der Zeit.


Google Panda Update 4.1

26. September 2014

Anfang dieser Woche begann Google mit dem Rollout von Panda 4.1.

Die offizielle Ankündigung schrieb Perre Far von Google in einem Beitrag auf Google+:

“Earlier this week, we started a slow rollout of an improved Panda algorithm, and we expect to have everything done sometime next week.

Based on user (and webmaster!) feedback, we’ve been able to discover a few more signals to help Panda identify low-quality content more precisely. This results in a greater diversity of high-quality small- and medium-sized sites ranking higher, which is nice.

Depending on the locale, around 3-5% of queries are affected.“

Übersetzt heißt es in etwa:
„Anfang der Woche haben wir damit begonnen, einen verbesserten Panda Algorithmus umzusetzen. Kommende Woche werden wir voraussichtlich damit fertig sein.
Das Update basiert auf Nutzer und Webmaster Feedback, mit dessen Hilfe wir in der Lage sind noch mehr Signale zu identifizieren, mit denen Panda nun Inhalte von geringer Qualität ermitteln kann. Dies führt zu besseren Rankings von einer Vielzahl an hochwertigeren kleinen und mittelgroßen Webseiten.
Betroffen sind dabei 3 – 5% der Suchanfragen – je nach Region.“

Insgesamt ist dieses Update eine Chance für Webseiten, die gute Inhalte liefern, sich jedoch gegen größere Mitbewerber mit qualitativ schlechteren Inhalten durchsetzen müssen. Diese Webseiten können dann auf bessere Rankings hoffen.

Searchengineland.com schreibt in einem Beitrag auch, dass viele Webseiten betroffen sein werden, die sich bislang mit qualitativ schlechten Inhalten profilieren konnten. Auf der anderen Seite ist es aber auch eine Chance für bereits in der Vergangenheit von Panda betroffene Webmaster, die daraufhin ihre Inhalte aufgewertet haben, da sie nun auf eine Besserung hoffen können.


dmexco Aktion: SEARCH UWE!

29. August 2014

Am 10./11. September ist es wieder soweit und die Online Welt findet sich auf der dmexco zusammen! Auch wir von ABAKUS sind Live als Teilnehmer mit vor Ort und freuen uns viele neue und bekannte Gesichter zu sehen!

In dem Zusammenhang haben wir uns eine besondere Challenge ausgedacht – SEARCH UWE!search-uwe-kl

Jeder der es schafft auf der dmexco ein Selfie-Foto mit Uwe Tippmann zu schießen und es dann über Facebook, G+ oder Twitter hoch lädt, der bekommt einen kompletten SEO Diver Zugang für ganze 3 Monate GRATIS von uns geschenkt!

Die Bedingung dabei ist, dass Uwe oder ABAKUS auf dem Foto mit markiert werden müssen.

Wir wünschen viel Glück bei der Challenge, denn wer sucht, der findet!


Erobern Sie mit SEO die „Spitzen-Positionen“!

20. August 2014

ABAKUS besetzt am 17. September die Festung Königstein!

Im Rahmen der SEO Roadshow 2014 findet das Seminar der ganz besonderen Art – in einer von Europas größten Bergfestungen – statt! Mit im Gepäck sind über 10 Jahre Erfahrung im Bereich der Suchmaschinenoptimierung. Am 17. September wird zusammen mit unseren SEO-Spezialisten die Festung Königstein in Sachsen erobert, dabei kann nicht nur ein spektakulärer Anblick genossen werden – unsere Fachleute geben Tipps und Tricks preis, die zum Aufstieg an die Spitze verhelfen.

Der ABAKUS SEO Spezialist Uwe Tippmann zeigt, wie man effektiv in der SEO-Welt durchstarten kann und verrät die Voraussetzungen, um erfolgreich bei Google platziert werden zu können. Die Themen der Agenda werden praxisnah an Beispielen der Teilnehmer durchgesprochen und erläutert! Die Analyse dient als Ausgangspunkt für die nachfolgende Optimierung der Webseite und hilft bei dem Aufstieg nach oben.

Sichern Sie sich jetzt Ihr Festung Königstein-Ticket unter:
http://www.abakus-internet-marketing.de/workshop/festung-koenigstein.htm

Weitere Informationen können Sie in unserer aktuellen PR-Meldung nachlesen unter:
http://www.abakus-internet-marketing.de/pdf/2014-08-20-abakus-seo-roadshow-festung-koenigstein.pdf


Die Agenda der SEO Roadshow 2014 steht nun fest!

23. Juli 2014

SEO-Klinik anhand von Beispielen der Teilnehmer – Themen der Agenda werden praxisnah durchgesprochen und erläutert!

Die Themen in der Übersicht:
– Voraussetzungen um erfolgreich bei Google platziert werden zu können
– Die Trends in der Suchmaschinenoptimierung – welche SEO Strategie trägt das größte Potential in sich?
– Was sollte man im Auge behalten – Tools zur Eigenkontrolle und Beobachtung des Marktes
– Alles was Sie schon immer zum Thema SEO wissen wollten

Seien Sie dabei und sichern sich einen Platz an einem von insgesamt 9 Terminen!

Weitere Informationen und zur Anmeldung:
www.seo-roadshow.de


SEO unter freiem Himmel mitten im Wald – Da ist noch Luft nach oben!

24. Juni 2014

ABAKUS geht ab August auf SEO Roadshow-Tour!

Erstmals starten wir unsere Tour mitten im Wald zusammen mit einem Notstromaggregat und einer Leinwand, die an zwei Bäumen befestigt wird! SEO einmal völlig anders und in dieser Art einmalig in Deutschland!

An 10 spannenden und abwechslungsreichen Locations bekommen Teilnehmer die Chance ihr SEO-Wissen aufzufrischen und können zudem auch die schönsten Regionen Deutschlands kennenlernen.
Am 28. August atmen Sie in der Lüneburger Heide nicht nur frische Waldluft unter freiem Himmel in toller Waldkulisse ein, sondern auch die Tipps und Tricks unserer SEO Experten.

Seien Sie dabei und sichern sich Ihr Ticket für diese außergewöhnliche Location! Denn: Auch in 2014 ist die Teilnehmerzahl auf max. 20 Personen begrenzt!

Alle Termine in der Übersicht:
www.seo-roadshow.de

Achtung: Der Termin findet nicht statt. Die nächste SEO Roadshow ist am 17. September in der Festung Königstein


Google’s Reconsideration Request mit Hinweisen

19. Juni 2014

Wenn bei einer Seite eine manuelle Maßnahme durchgeführt wird ist das schon ärgerlich.

Leider war Google bisher auch sehr verschlossen warum denn diese Maßnahme ausgeführt wurde.

Es wurde lediglich erwähnt, dass Links zur Seite gefunden wurden, die nicht den Qualitätsrichtlinien von Google entsprachen.

Einige Zeit später wurden dann, wenn der erste Reconsideration Antrag erfolglos verlief, einige Beispiellinks genannt.

Aber auch hier war dies das Maximum an Information, was man bis dahin von Google erfahren konnte.

 

Am 12. Juni schrieb Barry Schwartz, dass Matt Cutts in seiner Keynote auf der SMX Advanced erwähnte, dass ein neuer Prozess des Reconsideration Requests gelauncht wurde.

Es scheint so, als hätten die Mitarbeiter von Google die Möglichkeit ein Textfeld zu nutzen, um dort weitere Hinweise einzutragen, warum der Reconsideration Request abgelehnt wurde.

Herr Cutts stellte jedoch auch klar, dass nicht jede Ablehnung zusätzliches Feedback enthalten werde.

 

Mittlerweile gibt es sogar einen Screenshot von so einem Reconsideration Request -> http://www.seroundtable.com/google-reconsideration-request-note-18708.html

Neben den bereits bekannten Beispiellinks folgt der Standardtext, wie man Links abzubauen hat. Am Ende folgt ein Absatz mit der Überschrift: “A note from your reviewer:”.

Der Reviewer weist den Webmaster darauf hin, dass er nach Links suchen muss, die auf die kanonische URL seiner Seite verweisen, um weitere Links zu finden.

Ich gehe da mit Barry konform, dass etliche Webmaster an diese Idee noch nicht gedacht haben.


SEMSEO 2014 besticht durch Vielfalt und Atmosphäre

12. Mai 2014

Maßgeschneidertes Konzept mit der SEMSEO-University hat sich erfolgreich etabliert

Mit der achten SEMSEO Fachkonferenz am 8./9. Mai in Hannover hat sich das im vergangenen Jahr neu eingeführte Konzept mit einem Mix aus Fachvorträgen und Intensiv-Workshops (SEMSEO University) als Erfolgsmodell erwiesen. Begeisterte Teilnehmer aus dem Online Marketing und eCommerce haben aus der zweitätigen Veranstaltung neben tiefgreifendem Praxiswissen viele aktuelle Tipps und Tricks für ihren Online-Erfolg mit nach Hause nehmen können. Die Lounge-Party am ersten Veranstaltungsabend rundete das Gesamtprogramm zusätzlich ab und unterstrich die gewohnt persönliche Networking-Atmosphäre, auf die wir von je her ganz besonderen Wert legen.

Erwartungshaltung der User im Mittelpunkt
Kaspar Szymanski, diesjähriger Keynote-Speaker und ehemaliges Mitglied des Google Search Quality Teams, hat es gleich zu Beginn der Konferenz auf den Punkt gebracht: Nicht die Suchmaschinenperspektive hat sich geändert, sondern der User selber. In Folge des demografischen Wandels und kognitiver Reizüberflutung werden sich die Nutzer seiner Meinung nach zunehmend „ihrer selbst“ bewusst und begegnen den Online-Inhalten mit einer entsprechenden Erwartungshaltung. Diese Erwartungshaltung gilt es zu bedienen, von den Suchmaschinen ebenso wie von den Dienstleistern und ihren (Web-)Angeboten. Laut Szymanski ist dabei vor allem das so genannte „User Experience Marketing“ der entscheidende Ansatz für ein erfolgreiches Brand-Building.

Maßgeschneiderte SEMSEO für jeden Teilnehmer
Dank der insgesamt 14 kostenfreien Intensiv-Workshops und den parallel stattfindenden sieben Fachvorträgen konnte sich jeder Besucher bereits im Vorfeld eine auf seine eigenen, ganz individuellen Bedürfnisse ausgerichtete SEMSEO zusammenstellen: Von Content-, Inbound- und Affiliate-Marketing über Linkmarketing, Social Media, Usability und Online Reputation Management bis hin zu Online-Recht sowie Tracking und Webanalyse waren alle wichtigen Disziplinen dabei, die es aktuell im Online-Marketing unbedingt zu berücksichtigen gilt.

Unterschiedliche Ansätze zur Usergewinnung
Wie unterschiedlich und doch ganz ähnlich dabei die Ansätze sein können, zeigt schon die Gegenüberstellung zweier Vortragsthemen: So standen zum einen die beiden hannoverschen Verlagsgrößen Madsack und Schlütersche in Person von Marc Hildmann und Niels Dahnke auf der Bühne und veranschaulichten, wie man die Massen auf crossmedialen Wegen erreicht, um ein lokales Suchvolumen zu generieren. Zum anderen begeisterten Frank Fuchs von Microsoft/Bing und Online-Marketing Kenner Karl Kratz mit ihrem Vortrag „Future of Search“, in dem sie über den Ansatz der „conversational search“ das Bild darstellten, wie die Suchmaschinen in einigen Jahren anhand ihrer Fülle von Daten ein Data Mining betreiben können, mit dem sie individuell maßgeschneiderte Produkt- und Dienstleistungspakete quasi auf Zuruf bereitstellen werden.

Der Operating Systems and Services Evangelist Frank Fuchs kommt am Ende der Veranstaltung zu der Erkenntnis: „Das Besondere der SEMSEO ist und bleibt die Beständigkeit in der persönlichen, fast herzlichen Atmosphäre verbunden mit der professionellen Kundenansprache. Das macht die Veranstaltung für Teilnehmer genauso attraktiv wie für Referenten und Sponsoren.“

Wir freuen uns schon jetzt auf die kommende SEMSEO in 2015!


Social Media Marketing benötigt professionelle Strategien

24. April 2014

Der Buchautor und anerkannte Social Media-Experte Felix Beilharz erläutert in seinem zweistündigen Intensiv-Workshop auf der diesjährigen SEMSEO, die am 8./9. Mai in Hannover stattfindet, ein Social Media-Strategiemodell, das anschließend von allen Teilnehmern in der Praxis angewendet werden kann.

Planvolles Vorgehen von der Strategie bis zur Erfolgsmessung

Über die Social Media-Basics hinaus wird er dabei ausführlich auf die Erarbeitung einer professionellen Social Media-Strategie eingehen, bei der natürlich auch die Ist-Analyse sowie die Definition von Zielen und entsprechenden Zielgruppen berücksichtigt werden.

Signierstunde „Social Media Marketing im B2B“

Wer anschließend Social Media-Wissen mit ins Büro nehmen möchte, dem empfehlen wir das Buch „Social Media Marketing im B2B“, das Felix Beilharz in diesem Jahr veröffentlicht hat. Im Rahmen der Veranstaltung wird er dieses auf Wunsch gerne persönlich signieren.

Jetzt Workshop-Teilnahme sichern und Buch gewinnen

Sichern Sie sich jetzt einen der letzten Workshop-Plätze bei Felix Beilharz, denn die Teilnehmerzahl aller Workshops ist begrenzt. Einfach SEMSEO-Ticket buchen, danach kostenfrei für die gewünschten Workshops anmelden; nur so lange noch Plätze frei sind. Die ersten zehn Anmeldungen nach Veröffentlichung dieser Meldung erhalten das Buch „Social Media Marketing im B2B“ von uns geschenkt.

Wer nicht so lange warten möchte, kann sich das Buch schon Vorbestellen unter: http://www.amazon.de/gp/product/3955615588/

Weitere Informationen rund um die SEMSEO und die vollständige Agenda-Übersicht:
http://semseo.abakus-internet-marketing.de/agenda.html