Seite 1 von 2

Monitoring-Tool: Neue Seiten der Konkurrenz

Verfasst: 12.04.2019, 09:49
von R.Wiesner
Hallo liebe SEO-Freunde,
ich bin auf der Suche nach einem Tool, welches mich darüber informiert, welche neuen Unterseiten meine Mitbewerber erstellt haben. Ich finde diese Information recht wichtig, denn so kann ich feststellen, welche neuen Keywords meine Konkurrenten bedienen und welche Strategien verfolgt werden.

Kennt zufällig jemand ein Tool welches eine solche Funktion anbietet?

Freue mich auf Eure Tipps.

Viele Grüße
Robert

Verfasst:
von

Verfasst: 12.04.2019, 09:55
von staticweb

Verfasst: 12.04.2019, 10:16
von R.Wiesner
Naja, die site-Abfrage kenne ich schon, allerdings hilft mir die hier nicht weiter. Mich interessieren ja neue Content-Seiten, die Rankings erzielen sollen. Bei Domains mit mehreren 10.000 Seiten, fällt es über die site-Abfrage schwer, neue Content-Seiten zu erkennen.

Verfasst: 12.04.2019, 10:54
von staticweb
Dann versuche es damit:

https://www.google.de/alerts

Verfasst: 12.04.2019, 11:11
von R.Wiesner
Ich kann Dir versichern, dass ich die gängigen Google-Services und Tools am Markt kenne und diese die Anforderung nicht erfüllen. Ich besuche ein Forum um Geheim-Tipps zu bekommen oder von den Erfahrungen anderer SEOs zu profitieren und sich auszutauschen.

Hinweise auf Google-Services verfehlen aus meiner Sicht den Sinn und Zweck einer solchen Plattform.

Ich finde es gut dass Du Dich beteiligst, aber hilfreich ist das bisher leider nicht.

Verfasst:
von

Verfasst: 12.04.2019, 11:23
von staticweb
> Ich kann Dir versichern, dass ich die gängigen Google-Services und Tools am Markt kenne und diese die Anforderung nicht erfüllen.

Entschuldigung, dass muss ich in deinem Post überlesen haben.

> Ich besuche ein Forum um Geheim-Tipps zu bekommen ...

Wenn du glaubst, dass dir hier jemand kostenlos seine "Geheimnisse" mitteilt tust du mir leid.

> ... oder von den Erfahrungen anderer SEOs zu profitieren und sich auszutauschen.

Dann solltest du mal damit anfangen Input zu liefern oder dachtest du eher an eine one way solution!?

> Hinweise auf Google-Services verfehlen aus meiner Sicht den Sinn und Zweck einer solchen Plattform.

Dann würde ich dir einen Plattform-Wechsel nahe legen.

> Ich finde es gut dass Du Dich beteiligst, aber hilfreich ist das bisher leider nicht.

Vielleicht nicht für dich, aber für andere schon. Außerdem hattest du vergessen zu erwähnen, dass du für das Tool möglichst kein Geld ausgeben willst.

Verfasst: 12.04.2019, 11:45
von R.Wiesner
Das Tool darf bei passender Funktion natürlich auch kosten. Also falls jemand einen Tipp zum eigentlichen Thema hat, freue ich mich über Infos.

Verfasst: 12.04.2019, 12:39
von hanneswobus
r.wiesner.

besorge dir die sitemaps der konkurrenz u. programmiere dir einen scraper für diese sitemaps, der in xyz-minuten das zeug prüft. das ist in der umsetzung recht banal.

wie man das im detail anstellt, werde ich nicht beschreiben. mir geht nämlich diese forderungskultur auf den sack. natürlich kosten solche tools geld u. ich gehe davon aus, dass erwachsenen menschen sowas bewusst ist. übrigens: ich bin auch jmd., der viel über interna u. erkenntnisse redet, ich mache das aber nur bei etablierten kontakten u. bei dir sehe ich nur die forderung nach diesem austauschmodus. das ist okay, aber ich frage mich gerade, was du denn bspw. mir liefern kannst, wenn ich dir quellcodeteile zu eben deiner gewünschten lösung zeigen soll. ich habe nämlich dein problem bei mir vor einigen jahren schon gelöst. ich brauchte das mal, um die theorie zu beweisen, dass socialsignals halt doch interessanter sind, als viele seo-neueinsteiger_innen gern mal behaupten.

wenn du dich hier etabliert hast u./o. ein spannendes angebot formulierst, wäre ich gesprächsbereit. bedenke aber auch, dass die lösung deines problems die freigabe von spezialwissen bedeutet u. wüsste nicht, warum ich dir das geben sollte.

Verfasst: 12.04.2019, 15:46
von supervisior
@hanneswobus

Grundsätzlich bin zu 100% auf Deiner Seite. Im konkreten Fall überspannst Du es aber etwas, weil man das Benötigte auch so über die normale Suche bekommt und das for free, also auch die benötigten Tools. Die Herausforderung liegt nur darin nach dem richtigem suchen.

@r.wiesner

Es gibt solche Tools wonach Du suchst, die auch machen, was Du haben willst. Du musst nur wissen damit umzugehen, um das zu bekommen, was Du haben willst.

z.B. Xenu Sleuth
eigentlich ein Link Checker, aber mit den darin enthaltenen Funktionen bekommst Du, was Du haben willst. Ganz ohne händische Arbeit gehts aber nicht.

https://home.snafu.de/tilman/xenulink.html

oder Webscraper.io
Der Name ist in diesem Fall Begriff und Funktion und bedarf keiner besonderen Erläuterung. Aber auch hier musst Du Dich einarbeiten. Das Tool gibts for free als Chrome Erweiterung.

https://www.webscraper.io/

Verfasst: 12.04.2019, 16:03
von hanneswobus
@supervisor
naja. ich bin derzeit etwas emotionaler, als sonst ... aber ... du bemerkst das ja schon mit der herausforderung nach dem suchen.
egal u. zurück zur eingangsfrage.

deine toolvorschläge gehen in die richtige richtung, nur braucht man für das zeug eben auch eine alarmfunktion, die eben halt neue publikationen aufpoppen lässt. ich brauchte das "damals" u.a. auch, um "ad hoc" die socials da gegenprüfen zu lassen UND sowas bekommste - nach meiner marktsichtung - halt nur mit einer eigenen konstruktion hin. eigentlich ist das schnelle scrapen von xml-dateien (hallo sitemaps) kein hexenwerk.

ggf. kann er über die scrapebox gehen u. da die ausgeworfenen ergebnisse exportieren u. weiter verarbeiten. ansonsten ist der weg via g-alert am entspanntesten.

lg u. du hast ja recht. ick habs vorhin etwas übertrieben. ^^

Verfasst: 12.04.2019, 16:29
von supervisior
Ich verwende den G-Alert nur sporadisch und auch nicht für spezifische URLs, sondern bei bestimmten Inhalten egal wo und da dauert es immer eine Ewigkeit bis da was kommt, dass ich regelmäßig vergesse, dass ich damals was in Auftrag gegeben habe. Ich muss es deswegen offenlassen, ob dieser Dienst schneller ist, wenn das Target eine spezifische URL ist. Wirklich schnell ginge es aber mit Xenu, womit man sich eine Sitemap erstellen lassen kann und dann genügt ein einfacher Diff, um herauszufinden, ob was Neues hinzugekommen ist. So altbacken Xenu auch ist, aber es ist sauschnell und schneller als ein Scraper, da ja kein Content übertragen wird. Problematischer wirds allerdings bei wirklich großen Seiten/Archiven, was im konkreten Fall aber nicht zutreffen dürfte.

Verfasst: 12.04.2019, 22:53
von arnego2
R.Wiesner hat geschrieben:Ich besuche ein Forum um Geheim-Tipps zu bekommen.
Seit wann werden "Geheim Tipps" in Foren veröffentlicht?

Re: Monitoring-Tool: Neue Seiten der Konkurrenz

Verfasst: 13.04.2019, 00:02
von LinkPop
R.Wiesner hat geschrieben:Hallo liebe SEO-Freunde,
ich bin auf der Suche nach einem Tool, welches mich darüber informiert, welche neuen Unterseiten meine Mitbewerber erstellt haben.
Welche Prüffrequenz stellst Du Dir vor? täglich / stündlich / ...

Ich habe genau so ein Tool (bisher nur intern) im Einsatz. Falls Du woanders nichts findest, könnten wir uns unterhalten.

Verfasst: 13.04.2019, 16:34
von hanneswobus
arnego2 hat geschrieben:
R.Wiesner hat geschrieben:Ich besuche ein Forum um Geheim-Tipps zu bekommen.
Seit wann werden "Geheim Tipps" in Foren veröffentlicht?
mh. vor 8-9 jahren war das völlig normal. ^^

Verfasst: 16.04.2019, 15:16
von R.Wiesner
Vielen Dank für die ganzen Rückmeldungen. Eins vielleicht vorweg: mir ging es nicht darum hier kostenlos den heiligen SEO-Gral abzustauben, sondern hatte einfach eine konkrete Frage und dachte, dass vielleicht jemand einen Tipp hat. Nichts anderes macht man auf den zahlreichen SEO-Konferenzen meines Erachtens ja auch.

Ich werde mir die genanten Tools einmal anschauen, klingt jedenfalls schon mal nach der richtigen Richtung.
In unserem konkreten Fall würde eine wöchentliche (ggf. sogar monatliche) Prüffrequenz ausreichen, denn besonders agil ist man in unserer Branche leider nicht.