Das Thema mag für nicht wenige womöglich abstrakt wirken, aber man muss sich spätestens dann damit befassen, wenn man zumindest annähernd herausfinden will, ob, und wenn ja, sich der (Kapital)Einsatz/Aufwand für das Vermarkten eines Angebotes auch wirklich lohnt, bzw. in welchem Maße. Der Sache gänzlich auf den Grund gehen, kann man vermutlich nicht, weil es eine Reihe an Faktoren gibt, die sich nicht zu 100% qualifizieren lassen und dazu gehört die Qualität des Traffics, also wer ist ein realer Besucher und welcher nicht. Und wenn es ein realer Besucher ist, entsteht der Zugriff mit der Motivation, weil der Besucher gezielt z.B. auf einen Suchmaschinen Link geklickt hat oder der Aufruf dadurch entstand, weil der Aufruf über z.B. ein mobiles Gerät erfolgt und nur deswegen entsteht, weil insbesondere im Chrome beim Starten des Browsers immer die zuletzt aufgerufene Seite geladen wird. Das ist aber nur ein Beispiel von vielen variablen Faktoren, die sich nicht zur Gänze qualifizieren lassen.
Man kann also nur die Daten heranziehen, die sich härten lassen. Dazu gehört für mich maßgeblich die Sitzungszeit. Was hilft mir eine Statistik über die Menge an Besuchern, wenn ~15% dieser Besucher keine realen Besucher sind, wiederkehrende Besucher sind, aber der Zugriff nur daraus resultiert, weil beim Starten des Browsers die zuletzt aufgerufene Seite geladen wird. Wäre das Verhältnis < 5% würde ich mir keinen Kopf machen, geschweige denn der Sache versuchen auf den Grund zu gehen, aber es sind eben mehr als nur 5% und schankt bei mir Projekt übergreifend zwischen 12 und 20%. Das könnte man nun so deuten, dass bis zu 20% meines Aufwands sprichwörtlich fürn Ar*** ist.
Als unmittelbaren Messgrad setze ich nun die Sitzungszeit an, beginnend von dem Moment an, wann die Seite vollständig geladen ist. Wenn von diesem Zeitpunkt an die Sitzungszeit weniger als 6 Sekunden beträgt, kann man nicht davon ausgehen, dass das Angebot einer Seite tatsächlich und bewusst wahrgenommen wird. Diese 6 Sekunden resultieren aus einer sog. Heartbeat Funktion, welche mir Matomo optional zur Verfügung stellt, um die tatsächliche Besuchszeit zu ermitteln. In einem Intervall von 5 Sekunden wird überprüft, ob der Tab des Browsers noch lebt, bzw. dieser aktiv ist. Wird zu einem anderen Tab gewechselt, aber der vorherige Tab nicht geschlossen, pausiert der Intervall bis er entweder geschlossen oder wieder aktiv wird. Google Analytics hat diese Funktion übrigens nicht!
Das obige Diagramm zeigt das Verhältnis der Besucherzeiten von mehr und von weniger als den besagten 6 Sekunden. Aus Zeitrgünden erfasst dieses Diagramm nur den Vortag, aber auch über einen längeren Zeitraum ändert sich dabei nicht viel, bzw. schwankt zwischen 12 und 20% und hängt vom Wochentag ab.
Dieses Diagramm zeigt das Verhältnis der sog. "6 Sekunden" Besucherart. Hat man also z.B. 10.000 Besucher an 1 Tag und nimmt man im Extremfall 20% der "6 Sekunden" Besucher als Bemessungsgrundlage, dann resultieren allein aus der Browser Problematik mit der zuletzt aufgerufenen Seite fast ~
1000 wiederkehrende Besucher, die für die Tonne sind. Unterscheidet man die Besucherart nicht, sind es
sogar 2000!
Um das Ganze noch weiter aufzudröseln, zeigt das obige Diagramm das Verhältnis der verwendeten Geräte der wiederkehrenden Besucher mit einer Sitzungszeit weniger als 6 Sekunden. Bei diesem Diagramm wird das Browser Problem besonders deutlich und trägt maßgeblich dazu bei, das allen voran die mobilen Nutzer dazu beitragen, dass die Effizienz einer Seite verfälscht wird. In wie weit, bzw. wodurch das bei den Desktop Nutzern verursacht wird, kann ich bis dato noch nicht reproduzieren, weil es mit den Desktop Browsern Versionen ja eigentlich durchgängig möglich ist eine bestimmte Seite als Startseite beim Starten des Browsers zu definieren.
Um das Ganze abzurunden, zeigt die letzte Grafik die Gegenüberstellung der neuen Besucher mit einer Sitzungszeit von weniger als 6 Sekunden und das unterteilt nach Geräteart. Diese Grafik zeigt gewissermaßen die Grauzone an, die sich weder qualifizieren noch eindeutig identizieren lässt. Dazu gehören "böse Bots", die sich als reale Nutzer ausgeben, aber auch vorzeitige Seitenabbrüche und andere.
**************************************************************************
Der Eine oder Andere wird sich jetzt womöglich fragen, was das Ganze soll. Es wird zwar ersichtlich, dass nicht jeder Besucher auch nicht immer ein realer Besucher ist/sein kann und man nicht unerhebliche Abstriche bei der Qualität des Traffics machen muss, aber das mitunter entscheidende ist, dass man nur sein Bewusstsein in Bezug auf die Qualität des Traffics schärfen kann, weil man unterm Strich nichts dagegen tun kann. Einen maßgeblich Schuldigen mache ich aber trotzdem aus und das ist einmal mehr Google bezogen auf die schon mehrfach genannte Browser Problematik. Es ist Google herzlich egal, ob bei Seitenbetreibern die Qualifizierung des Traffics verfälscht wird. Für Google zählt nur die Maximierung der Anzeigenerlöse. Wenn allen voran im mobilen Chrome die Funktion fehlt eine Startseite beim Öffnen des Browsers definieren zu können, liegt es nahe, dass Google das nur deswegen macht, um den mobilen Nutzer zu nötigen, dass dieser die zuletzt aufgerufende Suchergebnisseite erneut angezeigt zu bekommen, wenn dieser den Browser startet. Das ist zwar nicht generell der Fall, aber auch nicht selten.
Es kann sich nun jeder seinen eigenen Reim daraus machen, Google ist und bleibt für mich der "evil one".