Warum registrieren? Nur als registriertes Mitglied vom ABAKUS Forum hast Du vollen Zugriff auf alle Funktionen unserer Website.

Warum man Google per se nicht trauen sollte

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 09:30

Es ist nun schon das x-tausendste Mal, das ich den Glauben verloren habe Google hätte auch nur ansatzweise ein Interesse daran irgendwas zu veröffentlichen das einen Wahrheitsgehalt haben könnte. Konkret damit gemeint ist das, was Google in der Search Console so ausspuckt und das unabhängig ob alte oder neue GSC. Vielmehr kommt bei mir der Verdacht auf, dass Google nur 1 Interesse hat, nämlich Verwirrung stiften um einen jeden Webmaster rund um die Uhr am Rad drehen zu lassen. Google's größter Aufwand besteht darin den Mythos um wie man die beste Platzierung bekommt so intransparant wie möglich zu gestalten. Dazu gehören beispielsweise die Angaben in der neuen GSC zur Leistung und im speziellen zur Platzierung. Diese Angaben haben für mich inzwischen den Charakter eines Zufallszahlengenerators, was sich wie folgt erklärt.

Bei einem meiner Projekte habe ich eine für dieses Projekt typische, aber ansonsten untypische Nutzerbasis, die sich besonders dadurch hervorhebt, dass 15 bis 20% der Nutzer den Internet Explorer verwenden und darauf schließen lässt, dass diese Nutzer zu 99.99% gewerbliche Nutzer sind, was sich auch aus anderen Faktoren gesichert erschließen lässt. Im Rahmen an anderer Stelle im Forum beschriebenen Blockaktion leite ich diese Nutzer um, bzw. kommen mir diese Nutzer nicht auf die eigentliche Seite. Diese Isolation ermöglicht es mir diese Nutzer besonders und gesondert zu tracken, wofür ich Matomo aka Piwik nutze. Der IE hat nun eine Besonderheit, die darin besteht Google'S Referrer Policy zu ignorieren, sodass ich alle GET Parameter von Google kommend angezeigt bekomme. Dazu gehört auch die Platzierung in den SERPS. Bei einem Nutzeranteil von 15 bis 20% kann man diesen Anteil als repräsentativ bewerten. Gleiche ich nun die in Echtzeit übertragenen Platzierungen mit den Leistungsangaben zur Platzierung in der GSC gibt es Abweichungen, die man nicht mehr als Schwankungsbreite definieren kann und es über Monate hinweg Unterschiede von im Durchschnitt 30 bis 40 Platzierungen gibt.

Wenn mir der IE von mehr als 100.000 Seiten Platzierungen in den Top10 attestiert, will mich Google glauben lassen, dass alle meine > 100.000 Seiten eigentlich irgendwo im Google's Search Nirwana wären, mir dann aber eine CTR > 10% attestiert. Ein hoher CTR, aber auf Grund der von Google ausgewiesenen Platzierungen eigentlich nicht mehr relevant, dass Nutzer auf Seite 6 und danach immer noch suchen, will irgendwie nicht zusammenpassen. Durch das letzte Core Update hatte ich zwar einen Rückgang der Zugriffszahlen, aber selbst dieser Rückgang passt nicht mit den immer noch hohen Nuterzahlen zusammen, zumal der gesuchte Content x-fach anderswo verfügbar ist. Niemand sucht noch auf der 6.Seite, wenn er die gesuchte Information schon auf der ersten Seiten bekommt. Das ist keine Spekulation, sondern ist Fakt. So blöd kann wahrlich kein Nutzer sein?!

Ginge es nur um geringfügige Abweichungen, würde ich mir keine Gedanken machen, aber die Abweichungen sind so extrem, dass man unweigerlich annehmen muss, dass Google einen Zufallsgenerator mit KI betreibt, die aber nur aus Bugs besteht.

Hanzo2012
Community-Manager
Community-Manager
Beiträge: 1702
Registriert: 26.09.2011, 23:31

Beitrag von Hanzo2012 » 24.04.2019, 09:39

Also kurzgefasst: Du wunderst dich über eine, laut Search Console, schlechte durchschnittliche Platzierung und eine dazu nicht passende hohe CTR?
Wichtig hier ist das Wort durchschnittlich. Relativ wenige Nutzer, bei denen deine Seite schlecht platziert ist (aus welchem Grund auch immer: personalisierte Suche, Berücksichtigung der Location/Sprache), können die durchschnittliche Platzierung überproportional runterziehen. Extremes Beispiel: Bei 10 Suchen rankt deine Seite auf Platz 1, und 60% klicken drauf. Bei einer einzigen Suche jedoch rankt sie auf Platz 100 (ohne Klick). Ergebnis: durchschnittliche Platzierung = 10(!), durchschnittliche CTR = 54,5%.
Wir hatten hier neulich mal einen Fall im Forum, wo (wenn ich mich richtig erinnere) das deutsche Hauptkeyword in einer anderen Sprache eine Bedeutung hatte, und Google hat die deutschsprachige Seite dann in den Ergebnissen dieser anderen Sprache mitgelistet, aber eben mit verdammt schlechter Platzierung, da falsche Sprache.
Kann das bei dir auch sowas sein?
Hast du in der Search Console mal nach dem relevanten Land gefiltert?
Und hast du auch nach den relevanten Suchbegriffen gefiltert, oder redest du hier von der durchschnittlichen CTR über alle Suchbegriffe?

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 09:59

Ich habe nicht nur "1" klasschisches oder nur eine Handvoll Keywords, sondern im Grunde genommen mehr als 100.000. Allerdings ist das Schema immer das Gleiche. 1 immer gleichbleibendes Keyword + 100.000 variable Keywords. Mein Content ist wie auch bei den Mitbewerbern ausschließlich deutsch, weil nur in Deutschland verfügbar. Eine andere Deutung in anderen Sprachen oder Ländern gibt es nicht. Was Du kurz zusammenfasst, stimmt nicht ganz. Das Problem ist maßgeblich die Diskrepanz der Platzierungen, die mir der IE ausspuckt und das was Google in der GSC ausspuckt. Das mit der CTR dient nur dazu die Leistungsangabe in der GSC mit den mehr als offensichtlich schlechten Platzierungen in Frage zu stellen. So wirklich auffallend wurde diese Diskrepanz erst durch das letzte Core Update. Davor ergaben sich nur unwesentliche Abweichungen von GSC und den Platzierungen, die aus dem IE ermittelt wurden.

Noch verwirrender wird das Scenario, wenn ich in der GSC bei den Geräten und der Poition einen Vergleich mache. Da liegen nach dem Core Update Lichtjahre dazwischen zu Ungunsten von Desktop Geräten, wobei hier aber auch der größte Widerspruch zu den Platzierungen liegt, Also IE versus GSC.

Die einzige logische Erklärung, die ich mir aktuell vorstellen kann, ist dass Google meine Seite bezogen auf den Content neu und anders klassifiziert/zugeordnet hat, sodass der eigentliche Content nun auch in Suchbereiche eingeflossen ist, die zuvor nicht relavant waren und in Folge dessen dieser Content auf den hinteren Rängen gelandet ist und es dadurch zu einer solchen Abwertung kam. Wenn dem so wäre, muss ich Google's KI die Qualität absprechen, weil bei meinem Content auch meine nicht mehr vorhandene Oma nach 5 Sekunden weiß, worum es geht.

[EDIT]

Das beschriebene Phänomen kann ich in fast gleicher Weise bei all meinen Projekten feststellen

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 10:11

supervisior hat geschrieben: Die einzige logische Erklärung, die ich mir aktuell vorstellen kann, ist dass Google meine Seite bezogen auf den Content neu und anders klassifiziert/zugeordnet hat, sodass der eigentliche Content nun auch in Suchbereiche eingeflossen ist, die zuvor nicht relavant waren und in Folge dessen dieser Content auf den hinteren Rängen gelandet ist und es dadurch zu einer solchen Abwertung kam. Wenn dem so wäre, muss ich Google's KI die Qualität absprechen, weil bei meinem Content auch meine nicht mehr vorhandene Oma nach 5 Sekunden weiß, worum es geht.
Um mich selbst zu zitieren, kommt diese für mich logische Erklärung dem Ganzen am Nächsten wenn ich mir in der GSC die Platzierungen der Suchbgriffe anschaue. Da sind in der Tat eine Fülle von Suchbegriffen, die thematisch nur indirekt was mit meinem Content zu tun, weil die Suchbegriffe zu wenig spezifisch sind und die ranken in Folge dessen unweit schlechter. Diese unspezifischen Suchbegriffe hat Google dem Graphen nach erst zusammen mit dem Core Update einfließen lassen und könnte folglich die beschriebene Diskrepanz erklären.

Hanzo2012
Community-Manager
Community-Manager
Beiträge: 1702
Registriert: 26.09.2011, 23:31

Beitrag von Hanzo2012 » 24.04.2019, 10:15

supervisior hat geschrieben:Das Problem ist maßgeblich die Diskrepanz der Platzierungen, die mir der IE ausspuckt und das was Google in der GSC ausspuckt.
Diese „Diskrepanz“ ist meines Erachtens gar keine. Natürlich kriegst du nur von den Besuchern Daten über den IE, die deine Seite auch angeklickt haben. Natürlich siehst du dann auch nur einigermaßen gute Platzierungen. Diejenigen, bei denen die Platzierung (sehr) schlecht war, kommen nicht auf deine Seite, aber Google hat diese Information trotzdem und berücksichtigt sie in den Statistiken.
Diese „Diskrepanz“ ist so ähnlich wie wenn du sagen würdest: „Laut Statistik gibt es nur 1,4% Deutsche auf der Welt. Aber 100% der Leute, mit denen ich heute Morgen in der Kneipe um die Ecke gesprochen habe, sind Deutsche!“

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 10:22

Da gebe ich Dir recht. Diese Diskrepanz muss ich nachträglich als relativ bezeichnen. Die IE Nutzer suchen gezielt und da meine Hauptkeywords nicht gelitten haben, ranken diese auch nach wie vor gut. Wenn die IE Nutzer gezielt suchen, klicken diese auch die Top platzierten Ergebnisse an, weshalb ich auch nur diese Top platzierten Nutzer sehe, aber eben nicht die Nutzer, die ohnehin nicht auf Seite 6 ein Ergebnis anklicken. Google hingegen weist den Durchschnitt aus, der aber nicht meinen Durchschnitt ist. Von daher muss ich wohl oder übel zurückrudern.....

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 11:50

Ich ergänze dieses Thema mal damit da noch was Brauchbares für andere Leser daraus wird.

Zunächst mal war es mein Fehler, dass ich mich hab in die Irre leiten lassen, was dem Anschein aber mit dem letzten Core Update einhergeht. Google weist in der GSC jeweils den Durchschnitt aus. Daran ist grundsätzlich nichts falsch dran und liegt schließlich der reinen Matehmatik zugrunde. Problem an einer durchschnittlichen Berechnung ist deren mathematischen Natur daran, die besonders dann in die Irre führt, wenn wie augenscheinlich beim letzten Core Update geschehen der Content einer Seite einem oder mehren neuen Themenbereichen zugewiesen wird, die dann aber nur mehr noch indirekt eine Relevanz zum Thema einer Seite haben und in Folge dessen schlecht bis hundsmiserabel schlecht ranken. Die Mathematik bei einer durchschnittlichen Berechnung macht das Ganze dann zu einem Rohrkrepierer, wenn unweigerlich neue, aber deutlich schlechter rankende Keywords in die Durchschnittsberechnung mit einfließen.

Auch wenn ich mit diesem Thema Google zunächst zu Unrecht zu etwas beschuldige, bleibt eine Restkritik beim Nutzfaktor der GSC. Mathematisch richtig gerechnet, aber für die Praxis nur wenig tauglich und auch nicht so aussagekräftig, dass man damit arbeiten kann. Die Mathe Genies wissen sicherlich, wie man eine "korrekte" durchschnittliche Berechnung durchführt, die eine herkömmliche Durchschnittsberechnung nicht in der Weise "verfälscht". Ich bin jetzt kein Mathe Genie, aber eigentlich müsste die Häufigkeit von Suchbegriffen mit in eine durchschnittliche Berechnung einfließen, sodass 1 schlecht rankender Suchbegriff nicht die anderen 9 guten so dermaßen in den Graben reißt?!

staticweb
PostRank 9
PostRank 9
Beiträge: 1212
Registriert: 04.05.2016, 14:34

Beitrag von staticweb » 24.04.2019, 12:45

Durch eine geschickte Filterung des Leistungs-Tools kannst du solche Verzerrungen umgehen.

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 12:47

staticweb hat geschrieben:Durch eine geschickte Filterung des Leistungs-Tools kannst du solche Verzerrungen umgehen.
Definiere "Geschickt"?

staticweb
PostRank 9
PostRank 9
Beiträge: 1212
Registriert: 04.05.2016, 14:34

Beitrag von staticweb » 24.04.2019, 13:36

> Definiere "Geschickt"?

Kommt darauf an was du genau analysieren willst.

Durch eine "atomare" Zerlegung bis auf eine keyword / page Kombination sollten auch brauchbare Ergebnisse entstehen, eine obere Platzierung und ein ausreichendes Suchvolumen vorausgesetzt.

Außerdem solltest du beachten, dass die Ergebnisse seit dem 10. April nur noch kanonisiert ausgeliefert werden.

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 13:53

Vorausgesetzt das ginge überhaupt und ich Kriterien nach meinen Vorstellungen anwenden würde, würde ich mir damit ein "Wunschergebnis" zusammenbauen, dass dann nix mehr mit der Realität zu tun hat. Von daher ist das, was Du da angibst leider nur wenig praktikabel und das egal, was ich analysieren will. Suchvolumen gäbe es zu Hauf. Das ist nicht das Problem. Das mit der Kanonisierung ist bei mir nebensächlich. Google hält sich zwar nur bedingt an meine Angaben zu dem was ich als Canonical definiert habe, aber Google's eigene Definition dazu hat keine Auswirkungen.

In jedem Fall ist das Anwenden von Kriterien, um eine Verzerrung auszugleichen aus meiner Sicht keine wirkliche Lösung, zumal nicht objektiv. Dazu müsste man u.a. die Suchbegriffe nebst jeweiliger Platzierung ungefiltert übertragen bekommen so wie früher. Das wäre dann zwar immer noch nicht die Endllösung, aber man bekäme mehr Einsicht darin, was Google glaubt meinem Content zuordnen zu müssen. Das bekommt man zwar als Download in der GSC, aber eben limitiert auf 1000 Einträge. Das hab ich ja in einem 1/2 Tag schon. In Ermangelung des Wissens über die Zuordnung scheint mir das eines der Auswirkungen aus dem letzten Core Update zu sein, ist aber nur eine Vermutung.

staticweb
PostRank 9
PostRank 9
Beiträge: 1212
Registriert: 04.05.2016, 14:34

Beitrag von staticweb » 24.04.2019, 15:04

> Das mit der Kanonisierung ist bei mir nebensächlich. Google hält sich zwar nur bedingt an meine Angaben zu dem was ich als Canonical definiert habe, aber Google's eigene Definition dazu hat keine Auswirkungen.

Google kanonisiert nach seinen eigenen Regeln. Das könnte schon ein Grund für Verzerrungen sein.

> Das bekommt man zwar als Download in der GSC, aber eben limitiert auf 1000 Einträge. Das hab ich ja in einem 1/2 Tag schon.

Mit einer Abfrage bekommst du bis zu 5000 Records. Mit einer geeigneten Software kannst du kombinatorisch dieses Limit umgehen.

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 15:44

staticweb hat geschrieben:> Das mit der Kanonisierung ist bei mir nebensächlich. Google hält sich zwar nur bedingt an meine Angaben zu dem was ich als Canonical definiert habe, aber Google's eigene Definition dazu hat keine Auswirkungen.

Google kanonisiert nach seinen eigenen Regeln. Das könnte schon ein Grund für Verzerrungen sein.
Sagte ich bereits ;) Die besagten Verzerrungen habe ich Google resultierend aus meinem Fehlverständnis zu den Angaben über Positionen und CTR unterstellt, die aber m.E. in keinem Zusammenhang stehen.
staticweb hat geschrieben: > Das bekommt man zwar als Download in der GSC, aber eben limitiert auf 1000 Einträge. Das hab ich ja in einem 1/2 Tag schon.

Mit einer Abfrage bekommst du bis zu 5000 Records. Mit einer geeigneten Software kannst du kombinatorisch dieses Limit umgehen.
Ist auch nur ein Bruchteil. Selbst mit 5.000 Records würde man ein bereits gefiltertes Ergebnis noch weiter filtern

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag