Warum registrieren? Nur als registriertes Mitglied vom ABAKUS Forum hast Du vollen Zugriff auf alle Funktionen unserer Website.

Tool um alle Rankings einer Website herauszufinden

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Webler
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 18.10.2018, 20:33

Beitrag von Webler » 13.11.2018, 17:50

Ich suche nach einem gutem und preisgünstigem Tool, mit dem ich mindestens alle Top 100 Rankings einer Website abrufen kann. Dabei sollte ich keine Keywords vorgeben müssen, sondern dass Tool soll automatisch die Keywords von meiner Website oder auch Konkurrenzseiten herausfinden können. Kann hier jemand irgendwas empfehlen?

nerd
PostRank 10
PostRank 10
Beiträge: 4037
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 13.11.2018, 21:19

Ja ganz einfach; google webmaster tools. Da meldest du dich mit deiner webseite an und dann siehst du genau wofuer deine seite rankt, welche seiten auf doch verlinken und wo der traffic herkommt. Kostet nichts, und die daten hat auch kein anderer dienstleister am markt.

Statt zu versuchen deine mitbewerber zu analysieren, solltest du deine zeit und dein geld lieber in den aufbau deiner eigenen seite stecken. Finde doch lieber raus was deine besucher wissen wollen und bediehne sie. Warum willst du der konkurenz hinterherrennen und sie kopieren? Was kann deine kopie bieten, was das original nicht hat?

arnego2
PostRank 9
PostRank 9
Beiträge: 1461
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag von arnego2 » 13.11.2018, 22:31

nerd hat geschrieben:Ja ganz einfach; google webmaster tools. Da meldest du dich mit deiner webseite an und dann siehst du genau wofuer deine seite rankt, welche seiten auf doch verlinken und wo der traffic herkommt. Kostet nichts, und die daten hat auch kein anderer dienstleister am markt.

Statt zu versuchen deine mitbewerber zu analysieren, solltest du deine zeit und dein geld lieber in den aufbau deiner eigenen seite stecken. Finde doch lieber raus was deine besucher wissen wollen und bediehne sie. Warum willst du der konkurenz hinterherrennen und sie kopieren? Was kann deine kopie bieten, was das original nicht hat?
Na ja er muss die Konkurrenz ja nicht 100% kopieren sondern eher die Rosinen picken, deren Links zum beispiel und eventuell aus den Fehlern lernen die dort begangen wurden.

Manchmal geht es allerdings nicht so toll mit google webmaster tools da es auch manchmal Fehler zeigen, also was angeben was nicht rankt. Oder auf Fehler zeigen die es nicht gibt.
Arnego2 <Web & Content>

Webler
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 18.10.2018, 20:33

Beitrag von Webler » 13.11.2018, 23:03

nerd hat geschrieben:Ja ganz einfach; google webmaster tools. Da meldest du dich mit deiner webseite an und dann siehst du genau wofuer deine seite rankt, welche seiten auf doch verlinken und wo der traffic herkommt. Kostet nichts, und die daten hat auch kein anderer dienstleister am markt.

Statt zu versuchen deine mitbewerber zu analysieren, solltest du deine zeit und dein geld lieber in den aufbau deiner eigenen seite stecken. Finde doch lieber raus was deine besucher wissen wollen und bediehne sie. Warum willst du der konkurenz hinterherrennen und sie kopieren? Was kann deine kopie bieten, was das original nicht hat?
Für die eigene Seite ist das sicherlich ein sehr guter Tipp. Allerdings bräuchte ich auch noch ein Tool um die Konkurrenz zu checken. Gründe dafür stehen in @arnego2 seinem Beitrag.

nerd
PostRank 10
PostRank 10
Beiträge: 4037
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 14.11.2018, 02:09

Kannst du mir grob beschreiben wie so ein "tool" genau von aussen erkennen soll ob oder wofuer eine beliebige seite bei google rankt? Schnueffelt dein tool dann bei jedem internetnutzer heimlich den kompletten HTTPS traffic mit, oder wie laeuft das?

Wie sollte dein tool regionale unterschiede (z.b. wenn "restaurant" aus muenchen oder aus hamburg gesucht wird) beachten, oder personalisierte ergebnisse wenn seiten z.b. nur von 14-jaehrigen besucht werden?

Selbst wenn dein tool alle links zu seite xyz kennt (nein, die kennt auch google nicht!), und linktext jedesmal "spam kaufen" ist, und auf der seite selbst auch ueberall "spam kaufen" in text, titel und domain vorkommt kann es ja trotzdem gut moeglich sein das google meint die seite sollte nur bei "kaffee kochen" ganz oben stehen, aber "spam kaufen" komplett ignoriert.

top
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 14.07.2005, 17:09

Beitrag von top » 14.11.2018, 10:10

Bis vor ein paar Monaten hätte ich dir den SEO-DIVER empfohlen: https://seodiver.com/

Zu meinem eigenem großen Bedauern ist genau das eine der Funktionen die sie (angeblich wegen mangelndem Interesse der Nutzer) beim letzten Update entfernt haben.

Wobei das Ranking der Google-Ergebnisse heutzutage oft nicht mehr eindeutig bestimmbar ist. Während man früher noch eindeutig sagen konnte, dass z.B. unter einem bestimmten Suchbegriff eine Seite auf z.B. Position 7 steht, hat man heute meistens personalisierte Ergebnisse. Das erschwert natürlich die genaue Bewertung der tatsächlichen Sichtbarkeit.

Vegas
PostRank 10
PostRank 10
Beiträge: 5096
Registriert: 27.10.2007, 14:07
Kontaktdaten:

Beitrag von Vegas » 14.11.2018, 12:08

Was Du suchst ist eine Standardfunktion alles bekannten SEO Suiten. Wenn es besonders preisgünstig sein soll, kommt da z.B. Xovi in Betracht.

Der Einwurf von top ist sicher richtig, die Ergebnisse werden immer mehr personalisiert und oft auch lokalisiert, aber besser nicht ganz exakte Rankingdaten, als gar keine.

Hinzu kommt noch die Frage wie groß die Datenbank des Anbieters ist, denn wenn es ums Ranking für nicht vorgegebene Begriffe geht, müssen die ja regelmäßig automatisch abgefragt werden. Solange es nicht um ganz krude Nischen mit so gut wie nicht vorhandenen Volumina geht, liefern aber alle Tools eine ganz solide Abdeckung.

@nerd: Die Funktionsweise, egal ob nun Sistrix, die ehemalige Funktion des SEOdiver, Xovi oder welches Tool auch immer, ist überall gleich. Man nehme eine große Datenbank mit ein paar Millionen Keywords quer durch alle Branchen. Dazu ein ganzer Berg Proxies, über die dann die Top 100 Rankings zu jeweiligen Begriff ausgelesen werden. Jedes Ranking jeder Seite kommt in die eigene Datenbank. On top, musst du das alles dann immer wieder in regelmäßigen Abständen aktualisieren, in der Regel wird das wöchentlich gemacht. Der technische Aufwand für dieses "Google Scraping" ist nicht unerheblich, denn eine Schnittstelle für solche Abfragen bietet Google schon lange nicht mehr an und damit nicht jeder mit irgendwelchen Desktoptools vom Bürorechner wild drauf los scrapen kann, werden IPs die zu viele Abfragen in zu kurzer Zeit vornehmen, geblockt.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

chris21
PostRank 9
PostRank 9
Beiträge: 2760
Registriert: 10.04.2005, 19:17

Beitrag von chris21 » 14.11.2018, 16:56

Wenn Du nur die Positionen zu nicht selbst gewählten Keys für Google DE und AT brauchst, kannst Du auch metrics.tools antesten - spart die Mehrkosten für nicht genutzte Funktionen, welche bei allen Seo-Suiten anfallen würden. Deren Keyword-Set ist nicht so schlecht, aktualisiert werden die Keys wöchentlich bzw. monatlich (je nach Suchvolumen des Keys).

nerd
PostRank 10
PostRank 10
Beiträge: 4037
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 14.11.2018, 20:12

Vegas hat geschrieben: @nerd: Die Funktionsweise, egal ob nun Sistrix, die ehemalige Funktion des SEOdiver, Xovi oder welches Tool auch immer, ist überall gleich. Man nehme eine große Datenbank mit ein paar Millionen Keywords quer durch alle Branchen.
Das weiss ich auch; es laeuft bei solchen diensten immer darauf hinaus das es alles nur exrem grobe schaetzungen sind. Wenn man die ergebnisse dann mit den echten werten vergleich von webseiten die man selbst kennt, findt man schnell raus dass die werte teilweise um den faktor 2-4 daneben liegen - selbst bei themen und seiten die ein recht ordentlichen traffic verursachen und wo man erwarten wuerde dass diese dienste genug daten haben um eine relativ genaue schaetzung vorzunehmen.

Webler
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 18.10.2018, 20:33

Beitrag von Webler » 14.11.2018, 21:01

nerd hat geschrieben:Kannst du mir grob beschreiben wie so ein "tool" genau von aussen erkennen soll ob oder wofuer eine beliebige seite bei google rankt? Schnueffelt dein tool dann bei jedem internetnutzer heimlich den kompletten HTTPS traffic mit, oder wie laeuft das?

Wie sollte dein tool regionale unterschiede (z.b. wenn "restaurant" aus muenchen oder aus hamburg gesucht wird) beachten, oder personalisierte ergebnisse wenn seiten z.b. nur von 14-jaehrigen besucht werden?

Selbst wenn dein tool alle links zu seite xyz kennt (nein, die kennt auch google nicht!), und linktext jedesmal "spam kaufen" ist, und auf der seite selbst auch ueberall "spam kaufen" in text, titel und domain vorkommt kann es ja trotzdem gut moeglich sein das google meint die seite sollte nur bei "kaffee kochen" ganz oben stehen, aber "spam kaufen" komplett ignoriert.
Ich denke es werden über mehrere IPs automatisiert Google Anfragen abgeschickt und die Daten zu allen gefundenen Domains und Keywords in eine Datenbank gescrapt. Diese Daten werden dem bezahlenden User dann zu der von ihm eingegebenen Domain angezeigt.

Sorry hab jetzt erst gesehen, dass dies schon geklärt wurde!
Zuletzt geändert von Webler am 14.11.2018, 21:06, insgesamt 1-mal geändert.

Webler
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 18.10.2018, 20:33

Beitrag von Webler » 14.11.2018, 21:05

Vegas hat geschrieben:Was Du suchst ist eine Standardfunktion alles bekannten SEO Suiten. Wenn es besonders preisgünstig sein soll, kommt da z.B. Xovi in Betracht.

Der Einwurf von top ist sicher richtig, die Ergebnisse werden immer mehr personalisiert und oft auch lokalisiert, aber besser nicht ganz exakte Rankingdaten, als gar keine.

Hinzu kommt noch die Frage wie groß die Datenbank des Anbieters ist, denn wenn es ums Ranking für nicht vorgegebene Begriffe geht, müssen die ja regelmäßig automatisch abgefragt werden. Solange es nicht um ganz krude Nischen mit so gut wie nicht vorhandenen Volumina geht, liefern aber alle Tools eine ganz solide Abdeckung.

@nerd: Die Funktionsweise, egal ob nun Sistrix, die ehemalige Funktion des SEOdiver, Xovi oder welches Tool auch immer, ist überall gleich. Man nehme eine große Datenbank mit ein paar Millionen Keywords quer durch alle Branchen. Dazu ein ganzer Berg Proxies, über die dann die Top 100 Rankings zu jeweiligen Begriff ausgelesen werden. Jedes Ranking jeder Seite kommt in die eigene Datenbank. On top, musst du das alles dann immer wieder in regelmäßigen Abständen aktualisieren, in der Regel wird das wöchentlich gemacht. Der technische Aufwand für dieses "Google Scraping" ist nicht unerheblich, denn eine Schnittstelle für solche Abfragen bietet Google schon lange nicht mehr an und damit nicht jeder mit irgendwelchen Desktoptools vom Bürorechner wild drauf los scrapen kann, werden IPs die zu viele Abfragen in zu kurzer Zeit vornehmen, geblockt.
Ich kenn halt Sistrix, aber ich finde die Funktionalität schon etwas eingeschränkt. Man bekommt dort eine gewisse Anzahl an Credits, die aufbrauchbar ist. Für den stolzen Preis erwarte ich eigentlich schon mehr und unbegrenzt viele Credits.

Webler
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 18.10.2018, 20:33

Beitrag von Webler » 14.11.2018, 21:07

chris21 hat geschrieben:Wenn Du nur die Positionen zu nicht selbst gewählten Keys für Google DE und AT brauchst, kannst Du auch metrics.tools antesten - spart die Mehrkosten für nicht genutzte Funktionen, welche bei allen Seo-Suiten anfallen würden. Deren Keyword-Set ist nicht so schlecht, aktualisiert werden die Keys wöchentlich bzw. monatlich (je nach Suchvolumen des Keys).
Das hört sich bis jetzt am Besten an. 8)

nerd
PostRank 10
PostRank 10
Beiträge: 4037
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 14.11.2018, 21:18

Webler hat geschrieben:Ich denke es werden über mehrere IPs automatisiert Google Anfragen abgeschickt und die Daten zu allen gefundenen Domains und Keywords in eine Datenbank gescrapt.
Nur sind die gescrapten daten dann eigentlich komplett fuer'n arsch, da die richtigen ergebnisse von google fuer user personalisiert, lokalisiert und preferenz fuer entweder mobile oder desktop (je nach endgeraet) gegeben wird. Welchen user wollen die scraper immitieren? Alle? Keine?

Webler
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 18.10.2018, 20:33

Beitrag von Webler » 15.11.2018, 12:44

nerd hat geschrieben:Nur sind die gescrapten daten dann eigentlich komplett fuer'n arsch, da die richtigen ergebnisse von google fuer user personalisiert, lokalisiert und preferenz fuer entweder mobile oder desktop (je nach endgeraet) gegeben wird. Welchen user wollen die scraper immitieren? Alle? Keine?
Also denkst du solche Tools bringens nicht mehr?

nerd
PostRank 10
PostRank 10
Beiträge: 4037
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 15.11.2018, 21:02

Ich zweifel den wert dieser daten an, da du als aussenstehender sowieso nicht nachpruefen kannst ob die werte stimmen, oder wie ungenau sie sind. Und mir ist auch absolut unklar wie man diese daten ausserhalb von google zuverlaessig(!) erheben will da es keine garantie gibt, dass 2 user bei der selben anfrage auch die selben ergebnisse in der selben reihenfolge sehen.
Wie schon geschrieben, bei seiten von welchen ich die richtigen werte mittels logs und webmastertools vergleichen konnte lagen die tools um faktor 2-4 nach oben oder unten daneben.
Wenn bei meiner software 1+1 "ungefaehr -4" ergibt wuerden mir die kunden den code um die ohren hauen und mich auslachen wenn ich noch verlange dass sie dafuer geld bezahlen.

Waere ich mal lieber in den markt fuer SEO-tools gegangen, da hinterfragen die leute wenigstens nie irgendwelche zufallszahlen die sie auf dem bildschirm sehen solange man ihnen weissmacht das es sich dabei um ganz viel "Algorithm", "KI", "Blockchain" oder "Cyber" handelt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag