@Steppke030: Klingt im Prinzip gut, aber wenn du schreibst "Dann schau ich mir die geloggten IPs an", meinst du dann, dass du das per Hand machst? Nein, ich habe mir dafür ein kleines Script geschrieben, was das macht, und mir für die jeweiligen IPs gleich den ISP (mit Namen, URL zur Webs...
Ich mache es so. Ich logge alle 404er-Zugriffe (mein Content ändert sich regelmäßig) und habe auch hidden-nofollow-Links auf meiner Seite. Dann schau ich mir die geloggten IPs an und wenn es die IP eines VPS/Serveranbieters ist, sperre ich, per ASN-Abruf, den gesamten IP-Bereich des Serveranbieters ...
In den US-Serps läuft gerade was Großes. Semrush Sensor 8,5! https://de.semrush.com/sensor/?db=US&category= Auch in den deutschen Serps sehe ich bei meinem Projekt große Sprünge, obwohl Semrush "normal" anzeigt. Wird morgen höchstwahrscheinlich zu uns rüberschwappen. Wie sieht es bei e...
Das sagt mit Keinem Wort ob das im Ranking einen Einfluß hat. Das hat hier überhaupt niemand behauptet!!!! Vielleicht solltest Du noch einmal die Ausgangsfrage lesen, und meine Antworten darauf, denn scheinbar hast Du Probleme mit dem Textverständnis. Und jetzt kannst Du Dir gerne weiterhin irgendw...
Der normale user ändert nichts an den Einstellungen. Der ist froh wenn er findet was er sucht. Das sehe ich nicht so. Wenn der deutsche Michel was von "Daten werden an Google übertragen" liest, glaubt er, überspitzt formuliert, dass seine Logindaten vom Onlinebanking oder die Besuche sein...
Natürlich lässt sich das belegen! Wie wärs, wenn Du Deine eigene Aufforderung aus Antwort 2 selbst befolgst. ;-) Google selbst? https://developers.google.com/web/tools/chrome-user-experience-report Selbst wenn Google Mitarbeiter sagen würden das aus dem und dem Grunde deine Seite abfällt heißt es ni...
Die Datensätze resultieren aus dem CrUX-Report des Chrome-Browsers, von Usern die Google die Erlaubnis zum Sammeln dieser Metriken erteilt haben und diese Felddaten stammen immer aus den letzten 28 Tagen. https://www.google.com/chrome/static/images/whitepaper/05-reports.png Gab es in den letzten 28 ...
Update: Ich habe jetzt die Zeit (zwischen den Requests) auf 60 bis 110 Sekunden (rand) erhöht. Das funktioniert wunderbar und der Spider kann dauerhaft laufen. Wenn ich morgens den Rechner anmache, starte ich gleich den Spider und dann läuft der im Hintergrund und ist gegen Mittag fertig. Perfekt. J...
Hallo Freunde, mit PHP und Perl habe ich mir einen kleinen Scraper geschrieben (den ich lokal unter XAMPP laufen lasse), mit dem ich das Ranking meiner ca. 200 Keywords einmal täglich erfassen (und in der Datenbank abspeichern) möchte. Das funktioniert auch wunderbar nur habe ich das Problem, dass d...