Seite 2 von 5

Verfasst: 08.02.2019, 10:54
von chris21
@Lollipop: höre bitte auf Hanzo und Milanex. Hier liegt ein systemimmanenter Messfehler seitens GA vor, der für eine vernünftige Analyse beseitigt werden muss. Dafür haben Milanex und Hanzo schon Lösungsansätze benannt.

Verfasst:
von

Verfasst: 08.02.2019, 10:58
von Hanzo2012
Lyk hat geschrieben:er hat doch rankingprobleme
Klingt für mich aber ganz anders:
Lollipop hat geschrieben:@Lyk: Meine Seiten sind gut aufgestellt. Sie ranken gut (wobei sie auch etwas Federn lassen mussten bei den Updates zwischen Sept. und Nov., aber das ist ein anderes Thema, da die gemessenen Werte schon lange gleich hoch sind).

Verfasst: 08.02.2019, 11:08
von Lyk
Hanzo2012 hat geschrieben:
Klingt für mich aber ganz anders:
du liest nicht das, was zwischen seinen zeilen steht.

glaubs mir, die seiten hatten bestimmt schon vor 2-1 jahren diese rankingprobleme. sowas kommt nicht von heute auf morgen, is ein schleichender prozess.

Verfasst: 08.02.2019, 11:12
von chris21
So, um es nochmals genauer zu erklären und um zwei Probleme aufzuzeigen:

In der Standardeinstellung misst GA nicht die Verweildauer auf einer Unterseite (Fall 1), sofern keine weitere Unterseite aufgerufen wird (Fall 2).

D.h. Fall 1: Besucher kommt auf Unterseite A und verbleibt 5 Minuten und verlässt dann die Seite (z.B. über Zurückbutton). GA zeigt diesen Besuch als 0 Sek und sortiert ihn bei Verweildauer 0-10 Sek. ein, obwohl er 5 Minuten auf der Seite war.

Fall 2: Besucher kommt auf Unterseite A und klickt nach 30 Sek. internen Link zu Unterseite B, verweilt dort 10 Sek. und schließt den Browser. GA misst dies als Verweildauer 30 Sek. für Unterseite A, 0 Sek. für Unterseite B und Gesamtverweildauer 30 Sek.

Daher: erstmal die Messung optimieren.

Und dann (und jetzt kommt Lyk ins Spiel) sich fragen, warum bisher 80% der Besucher keine weitere Unterseite aufrufen oder eine andere von GA bereits bisher gemessene Aktion (z.B. externer Link) ausführen. Da besteht durchaus Optimierungsbedarf.

Verfasst: 08.02.2019, 11:16
von Hanzo2012
chris21 hat geschrieben:Und dann (und jetzt kommt Lyk ins Spiel) sich fragen, warum bisher 80% der Besucher keine weitere Unterseite aufrufen oder eine andere von GA bereits bisher gemessene Aktion (z.B. externer Link) ausführen. Da besteht durchaus Optimierungsbedarf.
Würde ich pauschal nicht so sagen.
Das kommt ganz auf seine Seite an.
Wenn die Seite z. B. eine ganz konkrete Frage behandelt und das gut macht, dann bin ich nach dem Lesen dieser einen Seite fertig.
Ob er Klicks auf externe Links überhaupt trackt, wissen wir nicht.

Verfasst: 08.02.2019, 11:47
von Lyk
jungs, google trackt alles, absolut alles. und das auf jeder einzelnen seite.

die wissen genau was, wo, wie und wann der einzelnen besucher auf der webseite gemacht hat und wie, wann und weshalb der besucher abgesprungen ist.

in der standarteinstellung wird schon sooo viel herausgefiltert, da braucht ihr nicht nochmehr zu filtern um sowas zu analysieren.

Verfasst: 08.02.2019, 11:54
von Hanzo2012
Lyk hat geschrieben:jungs, google trackt alles, absolut alles. und das auf jeder einzelnen seite.

die wissen genau was, wo, wie und wann der einzelnen besucher auf der webseite gemacht hat und wie, wann und weshalb der besucher abgesprungen ist.

in der standarteinstellung wird schon sooo viel herausgefiltert, da braucht ihr nicht nochmehr zu filtern um sowas zu analysieren.
Absolut falsch.
Schau dir einfach in der Konsole (F12) an, welche Requests rausgehen. Dann siehst du, was Analytics trackt und wann.
Oder wenn du ganz paranoid bist und auch dem Browser nicht traust (selbst wenn es Firefox wäre), dann benutze Wireshark.

Alternativ kann ich dir gerne anhand einer einfachen Testseite beweisen, dass die Messungen falsch sind.

Verfasst: 08.02.2019, 12:03
von chris21
Lyk, es hilft nichts, absolute Aussagen über Fakten zu tätigen, die sofort überprüfbar und dadurch widerlegbar sind. Hanzo zeigt auf, wie es sofort überprüfbar ist.

Verfasst: 08.02.2019, 12:20
von Lyk
wird von den prozenten her das gleiche rauskommen. dann filterste jede menge bots raus und so. besucherzahlen sinken und trotzdem 80% die sofort wieder abspringen. an den 80% wird sich nicht viel ändern, mal 10% rauf oder runter aber das wars dann auch.

manche leute analysieren einfach zu lange, bis die dann maßnahmen ergreifen ist schon alles veraltet^^

Verfasst: 08.02.2019, 12:21
von Hanzo2012
... und manche Leute analysieren vorschnell, basierend auf falschen Annahmen und mit fehlendem technischen Sachverstand. Was ist wohl gefährlicher?

Verfasst: 08.02.2019, 12:24
von Lyk
nix falsche annahmen, dass sind erfahrungswerte. ;) die scheiße hab ich schon hinter mir.

Verfasst: 08.02.2019, 12:28
von Hanzo2012
Also basierend auf erwiesenermaßen falschen Messungen diagnostizierst du ein Problem mit einer Seite (wo es wahrscheinlich gar keins gibt), deren Inhalt du nicht kennst. Woher hast du die Kristallkugel?

Stell dir mal vor, du benutzt ein Fieberthermometer, und es zeigt 42 °C an, weil du falsch gemessen hast. Du rufst beim Doktor an, erzählst ihm von deinem angeblichen Fieber, und ohne dich anzuschauen verschreibt er dir Antibiotika. Fändest du das gut?

Verfasst: 08.02.2019, 12:55
von Lyk
kristalkugel ist für die, die keine erfahrungswerte haben, da noch keine erfahrung gesammelt und erstmal analysieren müssen.

was is daran nicht zu verstehen?

Verfasst: 08.02.2019, 12:57
von Hanzo2012
Was ist daran nicht zu verstehen, dass die Messungen falsch sind und du davon ausgehend gar nichts analysieren kannst?
(Wie soll ein Arzt basierend auf einer falsch gemessenen Körpertemperatur ohne den Patient zu sehen eine Diagnose stellen?)

Verfasst: 08.02.2019, 13:02
von staticweb
Setze einfach ein paar benutzerdefinierte Events. Zeitgesteuert oder über das Scrollverhalten. Dann kann hier weiter diskutiert werden.