Ich merke gerade die "average Bytes" Metrik in den Logdateien von Googlebot ist in sehr vielen Fällen 10-20% von der Größe der Seite. Wir wird "average Bytes" Metrik hinsichtlich Verhalten vom Googlebot interpretiert? Ist viel - gut, und wenig - schlecht? Mein die geringe "a...
ich hab' da mal 'ne Frage, eher zwei: Greifen DNS-prefetch, preconnect, preload auch bei gecachten Datein zu, wenn die Domain für DNS-prefetch etc. ausgeschrieben ist? Ist es der Fall, was wäre die Lösung bzw. Ansatz, um DNS-prefetch etc. nur greifen zu lassen, wenn entsprechende Dateien nicht im Ca...
So eins habe ich mir auch programmiert:) Habe nur noch keine Zeit, um das Tool zu erweitern, damit es in mehreren Threads sucht und sich pro Thread ein Proxy aus einer Datei nimmt.
Ich hatte bisher für die Recherche in Google Suggest immer auf KeywordShitter zugegriffen und habe damit gute Ergebnisse erzielt. Auf einmal ist mir die ganze Machinerie (jeder KeywordShitter im eigenen Browser-Prozess mit eigener Proxy) zu viel geworden - da dachte ich, hole ich mir doch Scrapebox,...
Ich habe ein Ultimate Hero Account und bin mega-happy. Die Jungs sind sehr kreativ, hilfreich, das Tool hat bei der Seite, die ich dort pflege, den non-provided-Anteil von 97% auf kaum 5% gedrückt.
Zwar ist der Direct-Anteil immer noch beträchtlich, aber wir arbeiten an der Attribution.
Wie sind eure Erfahrungen mit den Desktop Rank Tracking Tools (wie Ezee, Traffic Travis, Rank Tracken von Link-Assistant usw.) mit dem Keyword-Durchsatz pro Proxy? Wie viele Keyword Rankings fragt ihr durch wie viele Proxies in welcher Zeit ab ohne dass die Proxies gesperrt werden? Bitte vermerken: ...
ich bin immer auch derselben Meinung. Die Seite wird aber bei diesem Vorgehen ca. 80% der URLs verlieren - wie auch immer, durch Abschaffung und Weiterleitung oder durch die Deindexierung - ehrlich gesagt ein bisschen Schiess. So wie ihr eindeutig seid, würde ich dann doch in die Richtung gehen. Ers...
GTrends bildet die Häufigkeit der Suchvorgänge nicht ab.
In einem Schritt kannst du dein Ziel nicht erreichen. Du wirst erst Keywords recherchieren müssen (wie auch immer), und dann die Suchhäufigkeit abfragen (durch Keyword Planner bei AdWords oder SemRush).
Ich habe hier eine Seite, die so konzipiert ist: Zu einem Topic gibt es 5-10 URLs, je ca. 500 Wörter, Text-Ähnlichkeit bei 90%. Die URLs sind miteinander verlinkt, und zeigen alle auf eine von ihnen mit rel="canonical". So etwas passiert mit jedem Topic - insgesamt ca. 50.000 URLs. Die kan...