Warum registrieren? Nur als registriertes Mitglied vom ABAKUS Forum hast Du vollen Zugriff auf alle Funktionen unserer Website.

Warum man Google per se nicht trauen sollte

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
supervisior
PostRank 9
PostRank 9
Beiträge: 1265
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 09:30

Es ist nun schon das x-tausendste Mal, das ich den Glauben verloren habe Google hätte auch nur ansatzweise ein Interesse daran irgendwas zu veröffentlichen das einen Wahrheitsgehalt haben könnte. Konkret damit gemeint ist das, was Google in der Search Console so ausspuckt und das unabhängig ob alte oder neue GSC. Vielmehr kommt bei mir der Verdacht auf, dass Google nur 1 Interesse hat, nämlich Verwirrung stiften um einen jeden Webmaster rund um die Uhr am Rad drehen zu lassen. Google's größter Aufwand besteht darin den Mythos um wie man die beste Platzierung bekommt so intransparant wie möglich zu gestalten. Dazu gehören beispielsweise die Angaben in der neuen GSC zur Leistung und im speziellen zur Platzierung. Diese Angaben haben für mich inzwischen den Charakter eines Zufallszahlengenerators, was sich wie folgt erklärt.

Bei einem meiner Projekte habe ich eine für dieses Projekt typische, aber ansonsten untypische Nutzerbasis, die sich besonders dadurch hervorhebt, dass 15 bis 20% der Nutzer den Internet Explorer verwenden und darauf schließen lässt, dass diese Nutzer zu 99.99% gewerbliche Nutzer sind, was sich auch aus anderen Faktoren gesichert erschließen lässt. Im Rahmen an anderer Stelle im Forum beschriebenen Blockaktion leite ich diese Nutzer um, bzw. kommen mir diese Nutzer nicht auf die eigentliche Seite. Diese Isolation ermöglicht es mir diese Nutzer besonders und gesondert zu tracken, wofür ich Matomo aka Piwik nutze. Der IE hat nun eine Besonderheit, die darin besteht Google'S Referrer Policy zu ignorieren, sodass ich alle GET Parameter von Google kommend angezeigt bekomme. Dazu gehört auch die Platzierung in den SERPS. Bei einem Nutzeranteil von 15 bis 20% kann man diesen Anteil als repräsentativ bewerten. Gleiche ich nun die in Echtzeit übertragenen Platzierungen mit den Leistungsangaben zur Platzierung in der GSC gibt es Abweichungen, die man nicht mehr als Schwankungsbreite definieren kann und es über Monate hinweg Unterschiede von im Durchschnitt 30 bis 40 Platzierungen gibt.

Wenn mir der IE von mehr als 100.000 Seiten Platzierungen in den Top10 attestiert, will mich Google glauben lassen, dass alle meine > 100.000 Seiten eigentlich irgendwo im Google's Search Nirwana wären, mir dann aber eine CTR > 10% attestiert. Ein hoher CTR, aber auf Grund der von Google ausgewiesenen Platzierungen eigentlich nicht mehr relevant, dass Nutzer auf Seite 6 und danach immer noch suchen, will irgendwie nicht zusammenpassen. Durch das letzte Core Update hatte ich zwar einen Rückgang der Zugriffszahlen, aber selbst dieser Rückgang passt nicht mit den immer noch hohen Nuterzahlen zusammen, zumal der gesuchte Content x-fach anderswo verfügbar ist. Niemand sucht noch auf der 6.Seite, wenn er die gesuchte Information schon auf der ersten Seiten bekommt. Das ist keine Spekulation, sondern ist Fakt. So blöd kann wahrlich kein Nutzer sein?!

Ginge es nur um geringfügige Abweichungen, würde ich mir keine Gedanken machen, aber die Abweichungen sind so extrem, dass man unweigerlich annehmen muss, dass Google einen Zufallsgenerator mit KI betreibt, die aber nur aus Bugs besteht.

Anzeige von:

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Hanzo2012
Community-Manager
Community-Manager
Beiträge: 1764
Registriert: 26.09.2011, 23:31

Beitrag von Hanzo2012 » 24.04.2019, 09:39

Also kurzgefasst: Du wunderst dich über eine, laut Search Console, schlechte durchschnittliche Platzierung und eine dazu nicht passende hohe CTR?
Wichtig hier ist das Wort durchschnittlich. Relativ wenige Nutzer, bei denen deine Seite schlecht platziert ist (aus welchem Grund auch immer: personalisierte Suche, Berücksichtigung der Location/Sprache), können die durchschnittliche Platzierung überproportional runterziehen. Extremes Beispiel: Bei 10 Suchen rankt deine Seite auf Platz 1, und 60% klicken drauf. Bei einer einzigen Suche jedoch rankt sie auf Platz 100 (ohne Klick). Ergebnis: durchschnittliche Platzierung = 10(!), durchschnittliche CTR = 54,5%.
Wir hatten hier neulich mal einen Fall im Forum, wo (wenn ich mich richtig erinnere) das deutsche Hauptkeyword in einer anderen Sprache eine Bedeutung hatte, und Google hat die deutschsprachige Seite dann in den Ergebnissen dieser anderen Sprache mitgelistet, aber eben mit verdammt schlechter Platzierung, da falsche Sprache.
Kann das bei dir auch sowas sein?
Hast du in der Search Console mal nach dem relevanten Land gefiltert?
Und hast du auch nach den relevanten Suchbegriffen gefiltert, oder redest du hier von der durchschnittlichen CTR über alle Suchbegriffe?

supervisior
PostRank 9
PostRank 9
Beiträge: 1265
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 09:59

Ich habe nicht nur "1" klasschisches oder nur eine Handvoll Keywords, sondern im Grunde genommen mehr als 100.000. Allerdings ist das Schema immer das Gleiche. 1 immer gleichbleibendes Keyword + 100.000 variable Keywords. Mein Content ist wie auch bei den Mitbewerbern ausschließlich deutsch, weil nur in Deutschland verfügbar. Eine andere Deutung in anderen Sprachen oder Ländern gibt es nicht. Was Du kurz zusammenfasst, stimmt nicht ganz. Das Problem ist maßgeblich die Diskrepanz der Platzierungen, die mir der IE ausspuckt und das was Google in der GSC ausspuckt. Das mit der CTR dient nur dazu die Leistungsangabe in der GSC mit den mehr als offensichtlich schlechten Platzierungen in Frage zu stellen. So wirklich auffallend wurde diese Diskrepanz erst durch das letzte Core Update. Davor ergaben sich nur unwesentliche Abweichungen von GSC und den Platzierungen, die aus dem IE ermittelt wurden.

Noch verwirrender wird das Scenario, wenn ich in der GSC bei den Geräten und der Poition einen Vergleich mache. Da liegen nach dem Core Update Lichtjahre dazwischen zu Ungunsten von Desktop Geräten, wobei hier aber auch der größte Widerspruch zu den Platzierungen liegt, Also IE versus GSC.

Die einzige logische Erklärung, die ich mir aktuell vorstellen kann, ist dass Google meine Seite bezogen auf den Content neu und anders klassifiziert/zugeordnet hat, sodass der eigentliche Content nun auch in Suchbereiche eingeflossen ist, die zuvor nicht relavant waren und in Folge dessen dieser Content auf den hinteren Rängen gelandet ist und es dadurch zu einer solchen Abwertung kam. Wenn dem so wäre, muss ich Google's KI die Qualität absprechen, weil bei meinem Content auch meine nicht mehr vorhandene Oma nach 5 Sekunden weiß, worum es geht.

[EDIT]

Das beschriebene Phänomen kann ich in fast gleicher Weise bei all meinen Projekten feststellen

supervisior
PostRank 9
PostRank 9
Beiträge: 1265
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 24.04.2019, 10:11

supervisior hat geschrieben: Die einzige logische Erklärung, die ich mir aktuell vorstellen kann, ist dass Google meine Seite bezogen auf den Content neu und anders klassifiziert/zugeordnet hat, sodass der eigentliche Content nun auch in Suchbereiche eingeflossen ist, die zuvor nicht relavant waren und in Folge dessen dieser Content auf den hinteren Rängen gelandet ist und es dadurch zu einer solchen Abwertung kam. Wenn dem so wäre, muss ich Google's KI die Qualität absprechen, weil bei meinem Content auch meine nicht mehr vorhandene Oma nach 5 Sekunden weiß, worum es geht.
Um mich selbst zu zitieren, kommt diese für mich logische Erklärung dem Ganzen am Nächsten wenn ich mir in der GSC die Platzierungen der Suchbgriffe anschaue. Da sind in der Tat eine Fülle von Suchbegriffen, die thematisch nur indirekt was mit meinem Content zu tun, weil die Suchbegriffe zu wenig spezifisch sind und die ranken in Folge dessen unweit schlechter. Diese unspezifischen Suchbegriffe hat Google dem Graphen nach erst zusammen mit dem Core Update einfließen lassen und könnte folglich die beschriebene Diskrepanz erklären.

Hanzo2012
Community-Manager
Community-Manager
Beiträge: 1764
Registriert: 26.09.2011, 23:31

Beitrag von Hanzo2012 » 24.04.2019, 10:15

supervisior hat geschrieben:Das Problem ist maßgeblich die Diskrepanz der Platzierungen, die mir der IE ausspuckt und das was Google in der GSC ausspuckt.
Diese „Diskrepanz“ ist meines Erachtens gar keine. Natürlich kriegst du nur von den Besuchern Daten über den IE, die deine Seite auch angeklickt haben. Natürlich siehst du dann auch nur einigermaßen gute Platzierungen. Diejenigen, bei denen die Platzierung (sehr) schlecht war, kommen nicht auf deine Seite, aber Google hat diese Information trotzdem und berücksichtigt sie in den Statistiken.
Diese „Diskrepanz“ ist so ähnlich wie wenn du sagen würdest: „Laut Statistik gibt es nur 1,4% Deutsche auf der Welt. Aber 100% der Leute, mit denen ich heute Morgen in der Kneipe um die Ecke gesprochen habe, sind Deutsche!“

Anzeige von: