registrieren registriertes Mitglied


Anzeige

Anzeige

Warum man Google per se nicht trauen sollte

Alles über Google diskutieren wir hier.
supervisior
PostRank 10
PostRank 10
Beiträge: 3389
Registriert: 26.06.2006, 09:11

Beitrag supervisior » 24.04.2019, 09:30 Warum man Google per se nicht trauen sollte

Es ist nun schon das x-tausendste Mal, das ich den Glauben verloren habe Google hätte auch nur ansatzweise ein Interesse daran irgendwas zu veröffentlichen das einen Wahrheitsgehalt haben könnte. Konkret damit gemeint ist das, was Google in der Search Console so ausspuckt und das unabhängig ob alte oder neue GSC. Vielmehr kommt bei mir der Verdacht auf, dass Google nur 1 Interesse hat, nämlich Verwirrung stiften um einen jeden Webmaster rund um die Uhr am Rad drehen zu lassen. Google's größter Aufwand besteht darin den Mythos um wie man die beste Platzierung bekommt so intransparant wie möglich zu gestalten. Dazu gehören beispielsweise die Angaben in der neuen GSC zur Leistung und im speziellen zur Platzierung. Diese Angaben haben für mich inzwischen den Charakter eines Zufallszahlengenerators, was sich wie folgt erklärt.

Bei einem meiner Projekte habe ich eine für dieses Projekt typische, aber ansonsten untypische Nutzerbasis, die sich besonders dadurch hervorhebt, dass 15 bis 20% der Nutzer den Internet Explorer verwenden und darauf schließen lässt, dass diese Nutzer zu 99.99% gewerbliche Nutzer sind, was sich auch aus anderen Faktoren gesichert erschließen lässt. Im Rahmen an anderer Stelle im Forum beschriebenen Blockaktion leite ich diese Nutzer um, bzw. kommen mir diese Nutzer nicht auf die eigentliche Seite. Diese Isolation ermöglicht es mir diese Nutzer besonders und gesondert zu tracken, wofür ich Matomo aka Piwik nutze. Der IE hat nun eine Besonderheit, die darin besteht Google'S Referrer Policy zu ignorieren, sodass ich alle GET Parameter von Google kommend angezeigt bekomme. Dazu gehört auch die Platzierung in den SERPS. Bei einem Nutzeranteil von 15 bis 20% kann man diesen Anteil als repräsentativ bewerten. Gleiche ich nun die in Echtzeit übertragenen Platzierungen mit den Leistungsangaben zur Platzierung in der GSC gibt es Abweichungen, die man nicht mehr als Schwankungsbreite definieren kann und es über Monate hinweg Unterschiede von im Durchschnitt 30 bis 40 Platzierungen gibt.

Wenn mir der IE von mehr als 100.000 Seiten Platzierungen in den Top10 attestiert, will mich Google glauben lassen, dass alle meine > 100.000 Seiten eigentlich irgendwo im Google's Search Nirwana wären, mir dann aber eine CTR > 10% attestiert. Ein hoher CTR, aber auf Grund der von Google ausgewiesenen Platzierungen eigentlich nicht mehr relevant, dass Nutzer auf Seite 6 und danach immer noch suchen, will irgendwie nicht zusammenpassen. Durch das letzte Core Update hatte ich zwar einen Rückgang der Zugriffszahlen, aber selbst dieser Rückgang passt nicht mit den immer noch hohen Nuterzahlen zusammen, zumal der gesuchte Content x-fach anderswo verfügbar ist. Niemand sucht noch auf der 6.Seite, wenn er die gesuchte Information schon auf der ersten Seiten bekommt. Das ist keine Spekulation, sondern ist Fakt. So blöd kann wahrlich kein Nutzer sein?!

Ginge es nur um geringfügige Abweichungen, würde ich mir keine Gedanken machen, aber die Abweichungen sind so extrem, dass man unweigerlich annehmen muss, dass Google einen Zufallsgenerator mit KI betreibt, die aber nur aus Bugs besteht.

Anzeige von: