Seite 1 von 2

Wie viele surfen unsichtbar?

Verfasst: 17.08.2017, 23:46
von Dominik83
Hallo,

gibt es eine Statistik, in der man sieht, wie viele privat surfen, also nicht von Analytics erfasst werden?

Ich berechne nämlich manche Anzeigen per TKP. Wenn viele unsichtbar surfen, geht mir viel Geld verloren, weil ich ja nur das berechnen kann was in Analytics steht.

Gibt es ein Möglichkeit alle Besucher zu erfassen?

Verfasst:
von




Erfolgreiche und optimale Nutzung mit Magento Shopsystemen! Nutzen Sie unsere jahrelange Erfahrung mit Magento Shopsystemen und lassen Sie sich beraten!


Lesen Sie die wichtigsten Magento-Optimierungsmaßnahmen oder kontaktieren Sie uns direkt unter: 0511 / 300325-0


Verfasst: 18.08.2017, 00:28
von [btk]tobi
Jeder gute Adblocker blockt Analytics weg.

Wenn du alle Besucher erfassen möchtest musst du das Webserver Log benutzen, mit AWStats lässt sich das ganz gut auswerten.

Gruß Tobi

Verfasst: 18.08.2017, 09:40
von Dominik83
Danke für die Info. Kannst Du mir vorab sagen wie stark die Besucherzahlen im Schnitt von AWstats und Analytics voneinander abweichen?

Wird in der Standardliste von ABP generell Analytics geblockt?

https://easylist-downloads.adblockplus. ... sylist.txt

Verfasst: 20.08.2017, 17:45
von Rem
A) https://www.abakus-internet-marketing.d ... 38857.html
B) Falls Adblock Deine Werbung blockiert und zudem Analytics blockiert, ist der Fehler Null. Schliesslich wäre es Betrug, nicht-gesehene Werbung abzurechnen. Ausserdem verringerst Du damit die Conversion Deiner Werbung indem Du einfach Views draufschlägst, die nicht stattfanden. Was für einen Langzeitnutzen soll das bringen?

Mit keiner Modifikation Deiner Frage räumst Du Dein moralisches Dillemma aus dem Weg, irgendeinen Humbug abzurechnen. Du kannst offen mit Deinen Werbekunden darüber reden, deinen TKP aus diesen und jenen Gründen um 10%, 15% zu erhöhen, aber einfach 15% fadenscheinig draufzuschlagen, indem Du die Views (falsch) abschätzt, ist schon recht frech.

Ich will die Moralkeule nicht ausfahren, weil ich selbst Werbung verkaufe. Ich mache von Zeit zu Zeit Leute darauf aufmerksam, dass es aus diesen und jenen Gründen Tracking-Differenzen gibt. Ich sehe den Gesamtnutzen längerfristig, indem ich meine Werbeflächen zu 100% vermarkten kann und nicht kurzfristig, indem ich meine Werbekunden melke.

Verfasst: 20.08.2017, 18:09
von hanneswobus
mh. hallo in die runde.
nur mal so angedacht: tauchen die unsichtbaren surfer_innen nicht in den zugriffslogfiles vom server auf?
gruß

Verfasst:
von




Erfolgreiche und optimale Nutzung mit Shopware Shopsystemen! Nutzen Sie unsere jahrelange Erfahrung mit Suchmaschinenoptimierung für Shopware und lassen Sie sich beraten!


Lesen Sie die wichtigsten Shopware-Optimierungsmaßnahmen oder kontaktieren Sie uns direkt unter: 0511 / 300325-0


Verfasst: 20.08.2017, 21:58
von Hanzo2012
hanneswobus hat geschrieben:nur mal so angedacht: tauchen die unsichtbaren surfer_innen nicht in den zugriffslogfiles vom server auf?
Klar, wurde ja auch schon gesagt. Da tauchen natürlich auch tonnenweise Bots und Crawler auf.

Verfasst: 20.08.2017, 22:58
von hanneswobus
Hanzo2012 hat geschrieben:
hanneswobus hat geschrieben:nur mal so angedacht: tauchen die unsichtbaren surfer_innen nicht in den zugriffslogfiles vom server auf?
Klar, wurde ja auch schon gesagt. Da tauchen natürlich auch tonnenweise Bots und Crawler auf.
das mit den bots u. crawlern ist logisch.
eigentlich muesste man sich die bot- u. crawlerlisten besorgen u. die rohdatenlisten hiermit bereinigen. ich glaube mich zu erinnern, dass eben diese crawler- u. botlisten downloadbar sind u. damit koennte man ja arbeiten.

Verfasst: 20.08.2017, 23:11
von Hanzo2012
Ja, zumindest könnte man diejenigen erkennen, die ehrlich sind. Wer weiß schon, wie viele Bots/Crawler einfach einen normalen User Agent benutzen und einen Standard-Browser vortäuschen? ;)

Verfasst: 20.08.2017, 23:49
von hanneswobus
Hanzo2012 hat geschrieben:Ja, zumindest könnte man diejenigen erkennen, die ehrlich sind. Wer weiß schon, wie viele Bots/Crawler einfach einen normalen User Agent benutzen und einen Standard-Browser vortäuschen? ;)
logo.
eine gewisse fehlerquote muesste man da schon einkalkulieren. ggf. koennte man bei dem gedankenspielchen mal schauen, ob bspw. utrace eine API fuer gegenpruefungen anbietet.

Verfasst: 21.08.2017, 01:07
von nerd
Schreibt doch eine einfach javascript-funktion , welche nichts anderes macht als z.b. einen ajax-request auf eine datei auszufuehren die sonst nirgendwo verlinkt ist, und bindet diese funktion bei jedem pageload so mit ein.

In den logs sind dann alle die sitzungen echt, die auch einen ajax-request machen, und der rest sind bots oder leute die js deaktiviert haben.

Verfasst: 21.08.2017, 01:33
von Dominik83
Ist es aufwändig sowas programmieren zu lassen? Kenn mich damit nicht aus.

Verfasst: 21.08.2017, 07:07
von Hanzo2012
nerd hat geschrieben:Schreibt doch eine einfach javascript-funktion , welche nichts anderes macht als z.b. einen ajax-request auf eine datei auszufuehren die sonst nirgendwo verlinkt ist, und bindet diese funktion bei jedem pageload so mit ein.

In den logs sind dann alle die sitzungen echt, die auch einen ajax-request machen, und der rest sind bots oder leute die js deaktiviert haben.
Das Problem dabei ist, dass viele moderne Bots/Crawler auch JavaScript ausführen. Das sind quasi echte Browser so wie z. B. PhantomJS.
Was aber die wenigsten Bots/Crawler tun dürften ist die Maus zu bewegen, auf dem Bildschirm rumzutatschen, zu scrollen oder Tasten zu drücken. Das könnte man vielleicht als Bedingung nutzen.
Dominik83 hat geschrieben:Ist es aufwändig sowas programmieren zu lassen? Kenn mich damit nicht aus.
Nicht sehr aufwändig.

Verfasst: 08.11.2017, 19:59
von michaelh
Mit Piwik und dem Piwik PHP Tracker lassen sich alle Besucher aufzeichnen. Fake-Besucher lassen sich klasse filtern für reale und klasse Aussagen über die Zugriffszahlen. Wir machen das zB auch mit Magento so und verzichten auf Javascript-Tracking und auch zB auf verfolgende Cookies.
Die AWStats/Webalizer Stats sind mir einfach zu ungenau, die kann man für andere Auswertungen nutzen. Bei Fragen stelle ich gerne die Links hier zur Verfügung.

Verfasst: 08.11.2017, 20:12
von nerd
Ich habe Piwik und dem Piwik PHP Tracker nie selbst benutzt, aber in wiefern sind die hier besser als tracker die javascript mit herranziehen?
Mein problem ist, dass serverbasierte tracker ja prinzipiell erstmal jeden request (auch bots, crawler usw.) erfassen. Mit javascript kann man ja immerhin auch sachen wie z.b. bildschirmgroesse oder installierte fonts mit abfragen, welche sich nicht so leicht faken lassen wie z.b. user agents oder cookies.

Verfasst: 16.11.2017, 01:14
von Rem
Ich habe Piwik und dem Piwik PHP Tracker nie selbst benutzt, aber in wiefern sind die hier besser als tracker die javascript mit herranziehen?
Duumme Frage: aber hat man dann NICHT Piwik auf dem eigenen Server und bindet trotzdem einen JS-Schnippsel ein?

Sowas hätte zumindest den Vorteil, dass man mit Cookies von der eigenen Domain durchkäme und nicht AUCH NOCH Konflikte mit irgendwelchen EU-Regeln heraufbeschwört.

Steh ja auch hier:
https://piwik.org/docs/installation/
The Welcome Screen
System Check
MySQL Database Setup
Super User
Set up Your First Website
Install the JavaScript Tracking Tag
Congratulations!
Insofern scheint Piwik geeignet sein. Man könnte in einer Übergangszeit PIWIK und GA parallel nutzen, um herauszufinden, wie gross die Differenzen tatsächlich sind...