Seite 3 von 3

Verfasst: 12.09.2018, 15:14
von IMHO
Z.B. 2 oder so Screenshot (in denen man den kompletten Logeintrag sieht) von den Bots die Du ausfilterst.

Noch etwas: Du schreibst von 15% manchmal auch von 30% Ghosttraffic. Ist das über Deine 3 Domains konstant? Oder bei Projekt A) eher 5%, bei B 20%, …
Und: sind diese Prozentangaben der Unterschied den Du zwischen Matomo mit Heartbeat an/aus siehst? Bzw. zwischen Matomo und GA?

Verfasst:
von

Verfasst: 22.09.2018, 09:46
von supervisior
Na Logfiles werde ich hier sicherlich nicht posten. Macht auch wenig Sinn, weil um das zu überblicken, braucht es mehr als nur einen Screenshot.

Das Problem mit dem Ghosttraffic hab ich Projekt unabhängig und das betrifft nicht nur mich, sondern ausnahmslos jeden. Das Problem dabei ist, dass man das mit herkömmlichen Mitteln gar nicht erkennt. GA hat meines Wissens keine Möglichkeit wie Matomo mit dem man die Sitzungszeiten wirklích exakt erkennen kann. Dabei geht es besonders um das schon vorher an dem Beispiel beschriebene Problem. Das Gro an Ghosttrafic geht auf die mobilen Nutzer, die den Chrome und Derivate davon verwenden. Damit gemeint ist die fehlende Möglichkeit im mobilen Chrome eine Startseite definieren zu können, was zur Folge hat, dass beim Start vom Chrome immer die zuletzt aufgerufene Seite aufgerufen wird. Das taucht in der Statistik zwar als Sitzung auf, aber ist im Grunde genommen wertlos. Besonders schlimm wirkt sich das aus, wenn man ein Geschäftsmodell auf seiner Seite hat und dafür Zielseiten definiert hat. Wenn dann beim nächsten Starten des Chrome Browsers genau diese Zielseite geladen wird, aber der Nutzer eigentlich was ganz anderes aufrufen wollte, verfälscht das ganz erheblich die Wertigkeit dieser Zielseiten.

Mag sich für den Einen oder Anderen abstrakt anhören, ist es aber gar nicht. Man muss sich das nur mal zur Gemüte ziehen. Was ich da beschreibe, lässt sich sehr einfach reproduzieren. Dazu braucht es aber Matomo und die standardmäßig nicht aktiviete Heartbear Timer Funktion, wozu man auch den Trackercode ergänzen muss. Hat man das gemacht, einfach einen Bericht erstellen, der alle Sitzungen zeigt, die weniger als 6 Sekunden dauern. 6 Sekunden aber nur dann, wenn man den Timer in der Heartbeat Funktion auf 5 Sekunden eingestellt hat. Wer das genauer erklärt haben will, bitte melden.

Ergänzend zum Gosttraffic habe ich auch Maßnahmen ergriffen, um die "bösen" Bots von meinen Seiten fernzuhalten. Ob die jetzt böse sind, sei dahingestellt. In jedem Fall simulieren die sehr gut reale Nutzer, aber verfälschen eben auch die Wertigkeit des Traffics, Wer sich die Mühe macht mir nachzueifern ;), darf sich bitte nicht wundern, wenn die Zugriffszahlen plötzlich absinken, aber das ist dann nur das Ergebnis einer bereingten Zugriffsstatistik.

Auch dazu, wer darüber mehr wissen will, bitte melden. Das geht dann aber schon ins Eingemachte.

Verfasst: 22.09.2018, 10:05
von heinrich
supervisior hat geschrieben:GA hat meines Wissens keine Möglichkeit wie Matomo mit dem man die Sitzungszeiten wirklích exakt erkennen kann.
Also mir genügt das Page und Event Tracking von GA.

Verfasst: 22.09.2018, 11:08
von supervisior
heinrich hat geschrieben:
supervisior hat geschrieben:GA hat meines Wissens keine Möglichkeit wie Matomo mit dem man die Sitzungszeiten wirklích exakt erkennen kann.
Also mir genügt das Page und Event Tracking von GA.
Niemand muss wie ich auch noch das letzte Bit zählen, aber behalte Dir im Hinterkopf, dass im Schnitt 20% Deines Traffics = Besucher wertlos ist.

Verfasst: 22.09.2018, 11:21
von supervisior
Damit wirds vielleicht noch deutlicher, worums geht


Bild

Verfasst:
von

Verfasst: 17.10.2018, 20:47
von Scubi
So ganz kann das nicht hinkommen mit den offenen mobilen Seiten. Ich versende regelmäßig Newsletter an tausende Kunden. Viele davon lesen diesen per Smartphone. Dabei rufen Sie mehrere Seiten auf und schließen diese vermutlich nicht. Ich stimme Dir zu, das die wenigsten ihre letzten Seiten ganz schliessen. Demnach müßte ich aber am nächsten Tag ein erheblich höheres Besucheraufkommen in der Search Console finden.

Dem ist nicht so.

Ich schalte zum Beispiel keine Anzeigen mehr, weil ich auch wie Du festgestellt habe, das die Besucher keine echten Besucher sein können.
Der Hintergrund ist folgender. Ohne Anzeigen zu schalten habe ich eine Besucherzahl X am Tag. Und entsprechenden Umsatz.

Mit Anzeigen habe ich eine erhöhte Besucherzahl und entsprechende Kosten. Der Umsatz müsste sich ja parallel zum normalen kaufverhalten der Kunden ohne Anzeigen anpassen.
Fiktives Beispiel
1000 Besucher ohne Anzeigen machen 100 Bestellungen.
2000 Kunden mit Anzeigen machen aber auch nur 100 mit Glück 110 Bestellungen.

Verfasst: 17.10.2018, 20:52
von staticweb
> Der Umsatz müsste sich ja parallel zum normalen kaufverhalten der Kunden ohne Anzeigen anpassen.

Das ist eine Fehleinschätzung, denn es gibt qualitative Unterschiede beim Traffic!

Verfasst: 18.10.2018, 10:51
von supervisior
Scubi hat geschrieben:So ganz kann das nicht hinkommen mit den offenen mobilen Seiten. Ich versende regelmäßig Newsletter an tausende Kunden. Viele davon lesen diesen per Smartphone. Dabei rufen Sie mehrere Seiten auf und schließen diese vermutlich nicht. Ich stimme Dir zu, das die wenigsten ihre letzten Seiten ganz schliessen. Demnach müßte ich aber am nächsten Tag ein erheblich höheres Besucheraufkommen in der Search Console finden.

Dem ist nicht so.
Ich weiß nicht, ob Du Dich ausschließlich auf die Search Console stützt, aber ich rate Dir davon ab. Eine Aussage nur auf Grund der Search Console zu treffen ist dann mehr als nur fehlertolerant. Ich traue wenn überhaupt nur den Logfiles meines Webservers, wenngleich dieser auch nicht 100%ig ist, aber in jedem Fall stichhaltiger als jede andere externe Datenerfassung, die mittels Javascript versucht Daten zu ermitteln.

Ein erhöhtes Datenaufkommen an den Folgetagen nach dem Versenden Deines Newsletters musst Du aber haben. Ob das jetzt gleich "erheblich" sein muss, ist relativ, zumal Du als Voraussetzung qualifizieren müsstest, ob und mit welcher Rate Dein Newsletter auch gelesen, bzw. in Folge dessen dann auch Deine Webseite aufgerufen wird. An der untenstehenden Grafik solltest Du aber trotzdem schlussfolgern können, dass Du ein erhöhtes Datenaufkommen haben musst. Der Punkt ist jedoch, dass Deine Messmethode mit der Search Console einfach zu sehr fehlertolerant ist.


Scubi hat geschrieben: Ich schalte zum Beispiel keine Anzeigen mehr, weil ich auch wie Du festgestellt habe, das die Besucher keine echten Besucher sein können.
Der Hintergrund ist folgender. Ohne Anzeigen zu schalten habe ich eine Besucherzahl X am Tag. Und entsprechenden Umsatz.

Mit Anzeigen habe ich eine erhöhte Besucherzahl und entsprechende Kosten. Der Umsatz müsste sich ja parallel zum normalen kaufverhalten der Kunden ohne Anzeigen anpassen.
Fiktives Beispiel
1000 Besucher ohne Anzeigen machen 100 Bestellungen.
2000 Kunden mit Anzeigen machen aber auch nur 100 mit Glück 110 Bestellungen.
Deine Schlussfolgerung ist falsch, weil Du voraussetzt, dass das Kaufverhalten immer gleich ist. Quantität ist kein Messgrad für die Menge an Bestellungen.

Verfasst: 18.10.2018, 10:57
von ole1210
Mit Anzeigen habe ich eine erhöhte Besucherzahl und entsprechende Kosten. Der Umsatz müsste sich ja parallel zum normalen kaufverhalten der Kunden ohne Anzeigen anpassen.
Fiktives Beispiel
1000 Besucher ohne Anzeigen machen 100 Bestellungen.
2000 Kunden mit Anzeigen machen aber auch nur 100 mit Glück 110 Bestellungen.
Dann sind deine Anzeigen schlicht schlecht.

Verfasst: 18.10.2018, 12:23
von supervisior
Das Thema mag für nicht wenige womöglich abstrakt wirken, aber man muss sich spätestens dann damit befassen, wenn man zumindest annähernd herausfinden will, ob, und wenn ja, sich der (Kapital)Einsatz/Aufwand für das Vermarkten eines Angebotes auch wirklich lohnt, bzw. in welchem Maße. Der Sache gänzlich auf den Grund gehen, kann man vermutlich nicht, weil es eine Reihe an Faktoren gibt, die sich nicht zu 100% qualifizieren lassen und dazu gehört die Qualität des Traffics, also wer ist ein realer Besucher und welcher nicht. Und wenn es ein realer Besucher ist, entsteht der Zugriff mit der Motivation, weil der Besucher gezielt z.B. auf einen Suchmaschinen Link geklickt hat oder der Aufruf dadurch entstand, weil der Aufruf über z.B. ein mobiles Gerät erfolgt und nur deswegen entsteht, weil insbesondere im Chrome beim Starten des Browsers immer die zuletzt aufgerufene Seite geladen wird. Das ist aber nur ein Beispiel von vielen variablen Faktoren, die sich nicht zur Gänze qualifizieren lassen.

Man kann also nur die Daten heranziehen, die sich härten lassen. Dazu gehört für mich maßgeblich die Sitzungszeit. Was hilft mir eine Statistik über die Menge an Besuchern, wenn ~15% dieser Besucher keine realen Besucher sind, wiederkehrende Besucher sind, aber der Zugriff nur daraus resultiert, weil beim Starten des Browsers die zuletzt aufgerufene Seite geladen wird. Wäre das Verhältnis < 5% würde ich mir keinen Kopf machen, geschweige denn der Sache versuchen auf den Grund zu gehen, aber es sind eben mehr als nur 5% und schankt bei mir Projekt übergreifend zwischen 12 und 20%. Das könnte man nun so deuten, dass bis zu 20% meines Aufwands sprichwörtlich fürn Ar*** ist.

Als unmittelbaren Messgrad setze ich nun die Sitzungszeit an, beginnend von dem Moment an, wann die Seite vollständig geladen ist. Wenn von diesem Zeitpunkt an die Sitzungszeit weniger als 6 Sekunden beträgt, kann man nicht davon ausgehen, dass das Angebot einer Seite tatsächlich und bewusst wahrgenommen wird. Diese 6 Sekunden resultieren aus einer sog. Heartbeat Funktion, welche mir Matomo optional zur Verfügung stellt, um die tatsächliche Besuchszeit zu ermitteln. In einem Intervall von 5 Sekunden wird überprüft, ob der Tab des Browsers noch lebt, bzw. dieser aktiv ist. Wird zu einem anderen Tab gewechselt, aber der vorherige Tab nicht geschlossen, pausiert der Intervall bis er entweder geschlossen oder wieder aktiv wird. Google Analytics hat diese Funktion übrigens nicht!

Bild

Das obige Diagramm zeigt das Verhältnis der Besucherzeiten von mehr und von weniger als den besagten 6 Sekunden. Aus Zeitrgünden erfasst dieses Diagramm nur den Vortag, aber auch über einen längeren Zeitraum ändert sich dabei nicht viel, bzw. schwankt zwischen 12 und 20% und hängt vom Wochentag ab.

Bild

Dieses Diagramm zeigt das Verhältnis der sog. "6 Sekunden" Besucherart. Hat man also z.B. 10.000 Besucher an 1 Tag und nimmt man im Extremfall 20% der "6 Sekunden" Besucher als Bemessungsgrundlage, dann resultieren allein aus der Browser Problematik mit der zuletzt aufgerufenen Seite fast ~1000 wiederkehrende Besucher, die für die Tonne sind. Unterscheidet man die Besucherart nicht, sind es sogar 2000!

Bild

Um das Ganze noch weiter aufzudröseln, zeigt das obige Diagramm das Verhältnis der verwendeten Geräte der wiederkehrenden Besucher mit einer Sitzungszeit weniger als 6 Sekunden. Bei diesem Diagramm wird das Browser Problem besonders deutlich und trägt maßgeblich dazu bei, das allen voran die mobilen Nutzer dazu beitragen, dass die Effizienz einer Seite verfälscht wird. In wie weit, bzw. wodurch das bei den Desktop Nutzern verursacht wird, kann ich bis dato noch nicht reproduzieren, weil es mit den Desktop Browsern Versionen ja eigentlich durchgängig möglich ist eine bestimmte Seite als Startseite beim Starten des Browsers zu definieren.

Bild

Um das Ganze abzurunden, zeigt die letzte Grafik die Gegenüberstellung der neuen Besucher mit einer Sitzungszeit von weniger als 6 Sekunden und das unterteilt nach Geräteart. Diese Grafik zeigt gewissermaßen die Grauzone an, die sich weder qualifizieren noch eindeutig identizieren lässt. Dazu gehören "böse Bots", die sich als reale Nutzer ausgeben, aber auch vorzeitige Seitenabbrüche und andere.

**************************************************************************

Der Eine oder Andere wird sich jetzt womöglich fragen, was das Ganze soll. Es wird zwar ersichtlich, dass nicht jeder Besucher auch nicht immer ein realer Besucher ist/sein kann und man nicht unerhebliche Abstriche bei der Qualität des Traffics machen muss, aber das mitunter entscheidende ist, dass man nur sein Bewusstsein in Bezug auf die Qualität des Traffics schärfen kann, weil man unterm Strich nichts dagegen tun kann. Einen maßgeblich Schuldigen mache ich aber trotzdem aus und das ist einmal mehr Google bezogen auf die schon mehrfach genannte Browser Problematik. Es ist Google herzlich egal, ob bei Seitenbetreibern die Qualifizierung des Traffics verfälscht wird. Für Google zählt nur die Maximierung der Anzeigenerlöse. Wenn allen voran im mobilen Chrome die Funktion fehlt eine Startseite beim Öffnen des Browsers definieren zu können, liegt es nahe, dass Google das nur deswegen macht, um den mobilen Nutzer zu nötigen, dass dieser die zuletzt aufgerufende Suchergebnisseite erneut angezeigt zu bekommen, wenn dieser den Browser startet. Das ist zwar nicht generell der Fall, aber auch nicht selten.

Es kann sich nun jeder seinen eigenen Reim daraus machen, Google ist und bleibt für mich der "evil one".

Verfasst: 18.10.2018, 12:46
von nerd
Scubi hat geschrieben:Der Umsatz müsste sich ja parallel zum normalen kaufverhalten der Kunden ohne Anzeigen anpassen.
Nein, dafuer gibt es zuviele variablen. Google wird wohl ein interesse daran haben dir zuerst die kunden zu schicken die am meisten interesse zeigen (z.b. schon vorher bei anderen shops waren oder mehere relevante suchen getaetigt haben), und je mehr kunden du "wegkaufst" umso unqualifizierter werden die verbleibenden kunden.

In einer anderen firma in welcher ich gearbeitet habe wurden auch pro monat vierstellige betraege bei adwords ausgegeben weil es sich gelohnt hat und entsprechend viele bestellungen reinkamen. Irgendwann gab es aber ein limit bei welchem die ads zu teuer wurden, und der traffic nur noch schlecht konvertierte. Wo dieser punkt bei dir ist musst du selbst rausfinden.

Das war eine ziehmlich spezielle software die nur fuer grosse bueros relevant ist und die man sich wohl auch fuer mehrere jahre anschafft, womit man pro monat auch nur eine begrenzte anzahl potentieller neukunden hat.

Verfasst: 18.10.2018, 18:55
von Scubi
Hallo Nerd,


schalte ich auf anderen Plattformen außer bei Google Anzeigen, so ist schon erkennbar, das die Einkäufe entsprechend steigen.

Da sich die Anzeigen Google und andere Plattformen gleichen, kann ich auch nicht glauben, das es an der Art der Anzeigen liegt.
Fakt ist zumindest bei mir. Google kostet viel, bringt aber wenig Umsatz.
Somit lasse ich es einfach mit Google.

Verfasst: 18.10.2018, 19:33
von supervisior
Scubi hat geschrieben: Fakt ist zumindest bei mir. Google kostet viel, bringt aber wenig Umsatz.
Somit lasse ich es einfach mit Google.
Wenn Du mal so gar nicht weißt, was Du machen sollst, dann lese Dir das mal durch. ;)

https://www.abakus-internet-marketing.d ... 40362.html

Verfasst: 18.10.2018, 21:08
von Scubi
Da bin ich zu 100% bei Dir was Du dort schreibst. Allerdings habe ich nicht so einen Mega Aufwand wie du betrieben um das skalieren zu können :-)