Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Rankingverlust nach Umstellung HTTPS und weitere Maßnahmen
Branchenverzeichnis veröffentlichen über MyMaps
Na ja er muss die Konkurrenz ja nicht 100% kopieren sondern eher die Rosinen picken, deren Links zum beispiel und eventuell aus den Fehlern lernen die dort begangen wurden.nerd hat geschrieben:Ja ganz einfach; google webmaster tools. Da meldest du dich mit deiner webseite an und dann siehst du genau wofuer deine seite rankt, welche seiten auf doch verlinken und wo der traffic herkommt. Kostet nichts, und die daten hat auch kein anderer dienstleister am markt.
Statt zu versuchen deine mitbewerber zu analysieren, solltest du deine zeit und dein geld lieber in den aufbau deiner eigenen seite stecken. Finde doch lieber raus was deine besucher wissen wollen und bediehne sie. Warum willst du der konkurenz hinterherrennen und sie kopieren? Was kann deine kopie bieten, was das original nicht hat?
Für die eigene Seite ist das sicherlich ein sehr guter Tipp. Allerdings bräuchte ich auch noch ein Tool um die Konkurrenz zu checken. Gründe dafür stehen in @arnego2 seinem Beitrag.nerd hat geschrieben:Ja ganz einfach; google webmaster tools. Da meldest du dich mit deiner webseite an und dann siehst du genau wofuer deine seite rankt, welche seiten auf doch verlinken und wo der traffic herkommt. Kostet nichts, und die daten hat auch kein anderer dienstleister am markt.
Statt zu versuchen deine mitbewerber zu analysieren, solltest du deine zeit und dein geld lieber in den aufbau deiner eigenen seite stecken. Finde doch lieber raus was deine besucher wissen wollen und bediehne sie. Warum willst du der konkurenz hinterherrennen und sie kopieren? Was kann deine kopie bieten, was das original nicht hat?
Das weiss ich auch; es laeuft bei solchen diensten immer darauf hinaus das es alles nur exrem grobe schaetzungen sind. Wenn man die ergebnisse dann mit den echten werten vergleich von webseiten die man selbst kennt, findt man schnell raus dass die werte teilweise um den faktor 2-4 daneben liegen - selbst bei themen und seiten die ein recht ordentlichen traffic verursachen und wo man erwarten wuerde dass diese dienste genug daten haben um eine relativ genaue schaetzung vorzunehmen.Vegas hat geschrieben: @nerd: Die Funktionsweise, egal ob nun Sistrix, die ehemalige Funktion des SEOdiver, Xovi oder welches Tool auch immer, ist überall gleich. Man nehme eine große Datenbank mit ein paar Millionen Keywords quer durch alle Branchen.
Ich denke es werden über mehrere IPs automatisiert Google Anfragen abgeschickt und die Daten zu allen gefundenen Domains und Keywords in eine Datenbank gescrapt. Diese Daten werden dem bezahlenden User dann zu der von ihm eingegebenen Domain angezeigt.nerd hat geschrieben:Kannst du mir grob beschreiben wie so ein "tool" genau von aussen erkennen soll ob oder wofuer eine beliebige seite bei google rankt? Schnueffelt dein tool dann bei jedem internetnutzer heimlich den kompletten HTTPS traffic mit, oder wie laeuft das?
Wie sollte dein tool regionale unterschiede (z.b. wenn "restaurant" aus muenchen oder aus hamburg gesucht wird) beachten, oder personalisierte ergebnisse wenn seiten z.b. nur von 14-jaehrigen besucht werden?
Selbst wenn dein tool alle links zu seite xyz kennt (nein, die kennt auch google nicht!), und linktext jedesmal "spam kaufen" ist, und auf der seite selbst auch ueberall "spam kaufen" in text, titel und domain vorkommt kann es ja trotzdem gut moeglich sein das google meint die seite sollte nur bei "kaffee kochen" ganz oben stehen, aber "spam kaufen" komplett ignoriert.
Ich kenn halt Sistrix, aber ich finde die Funktionalität schon etwas eingeschränkt. Man bekommt dort eine gewisse Anzahl an Credits, die aufbrauchbar ist. Für den stolzen Preis erwarte ich eigentlich schon mehr und unbegrenzt viele Credits.Vegas hat geschrieben:Was Du suchst ist eine Standardfunktion alles bekannten SEO Suiten. Wenn es besonders preisgünstig sein soll, kommt da z.B. Xovi in Betracht.
Der Einwurf von top ist sicher richtig, die Ergebnisse werden immer mehr personalisiert und oft auch lokalisiert, aber besser nicht ganz exakte Rankingdaten, als gar keine.
Hinzu kommt noch die Frage wie groß die Datenbank des Anbieters ist, denn wenn es ums Ranking für nicht vorgegebene Begriffe geht, müssen die ja regelmäßig automatisch abgefragt werden. Solange es nicht um ganz krude Nischen mit so gut wie nicht vorhandenen Volumina geht, liefern aber alle Tools eine ganz solide Abdeckung.
@nerd: Die Funktionsweise, egal ob nun Sistrix, die ehemalige Funktion des SEOdiver, Xovi oder welches Tool auch immer, ist überall gleich. Man nehme eine große Datenbank mit ein paar Millionen Keywords quer durch alle Branchen. Dazu ein ganzer Berg Proxies, über die dann die Top 100 Rankings zu jeweiligen Begriff ausgelesen werden. Jedes Ranking jeder Seite kommt in die eigene Datenbank. On top, musst du das alles dann immer wieder in regelmäßigen Abständen aktualisieren, in der Regel wird das wöchentlich gemacht. Der technische Aufwand für dieses "Google Scraping" ist nicht unerheblich, denn eine Schnittstelle für solche Abfragen bietet Google schon lange nicht mehr an und damit nicht jeder mit irgendwelchen Desktoptools vom Bürorechner wild drauf los scrapen kann, werden IPs die zu viele Abfragen in zu kurzer Zeit vornehmen, geblockt.
Das hört sich bis jetzt am Besten an.chris21 hat geschrieben:Wenn Du nur die Positionen zu nicht selbst gewählten Keys für Google DE und AT brauchst, kannst Du auch metrics.tools antesten - spart die Mehrkosten für nicht genutzte Funktionen, welche bei allen Seo-Suiten anfallen würden. Deren Keyword-Set ist nicht so schlecht, aktualisiert werden die Keys wöchentlich bzw. monatlich (je nach Suchvolumen des Keys).
Nur sind die gescrapten daten dann eigentlich komplett fuer'n arsch, da die richtigen ergebnisse von google fuer user personalisiert, lokalisiert und preferenz fuer entweder mobile oder desktop (je nach endgeraet) gegeben wird. Welchen user wollen die scraper immitieren? Alle? Keine?Webler hat geschrieben:Ich denke es werden über mehrere IPs automatisiert Google Anfragen abgeschickt und die Daten zu allen gefundenen Domains und Keywords in eine Datenbank gescrapt.
Also denkst du solche Tools bringens nicht mehr?nerd hat geschrieben:Nur sind die gescrapten daten dann eigentlich komplett fuer'n arsch, da die richtigen ergebnisse von google fuer user personalisiert, lokalisiert und preferenz fuer entweder mobile oder desktop (je nach endgeraet) gegeben wird. Welchen user wollen die scraper immitieren? Alle? Keine?