Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Na dann lass mal hören!supervisior hat geschrieben: ↑10.08.2023, 18:28 Will man mehr darüber erfahren, wie man sich der besagten unerwünschten Zugriffe wirkungsvoll entledigen kann und das ohne zusätzliche Software oder als Programmierer? Your Feedback is welcome.
Nein. Es handelte sich um Besucher, die laut User Agent einen modernen Browser benutzten, der diese Sec-Fetch-Header senden sollte. Aber die Header wurden nicht mitgesendet. Und die Eingaben, die diese Besucher tätigen, haben mich davon überzeugt, dass es sich um echte Menschen handelte.supervisior hat geschrieben: ↑11.08.2023, 10:58 Wenn Du falsch positive Resultate erhältst, dann muss das unweigerlich daraus resultieren, dass Du keine Whitelist definiert hast, die unweigerlich notwendig ist.
Ja klar nutze ich zur beantwortung DEINER fragen chatGPT. Waum sollte ich mir auch dein 2-seitiges geschwafel mit der kernaussage "aetsch - ich weis ja wie man poese pots plockt, verrate es euch aber nicht!!1!" selbst durchlesen?supervisior hat geschrieben: ↑11.08.2023, 10:58 @nerd
Nachdem ich die Eloquenz deiner Ausführungen so nicht kenne, muss ich unweigerlich daraus schließen, dass Du ein Fan von ChatGPT geworden und zu faul geworden bist, um Dir selbst noch einen Kommentar auszudenken. Deswegen steck Dir einen deiner 10 Finger dorthin wo die Sonne nie scheint. Frag mal deinen Ghostwriter, ob er die Stelle kennt.
Sorry, deine Kommentare habe ich doch glatt übersehen. Was mein Wunschdenken ist, kann Dir doch herzlich egal sein. Mit dem Abstreiten, dass ich mir was wünsche würde, mischt Du dich in meine geistige Freiheit ein, also maße Dir so etwas nicht an.
Wo liegt das Problem? Meine Aussage folgt schlussendlich nur der Logik eines bösen Buben. Warum sollte ich als möglicher böser Bube ein Interesse an einem CMS haben, das nur spärlich genutzt wird. Es ist doch viel rentabler nach etwas suchen das weitverbreitet ist und das ist bei WordPress nun mal der Fall. Von etwas verwechseln kann deswegen überhaupt nicht die Rede sein. Welcher Logik folgst Du denn?
Tja, was soll ich sagen - es war halt so.supervisior hat geschrieben: ↑11.08.2023, 11:08 Nach Adam Riese ist das nicht möglich, weil der einzige Browser, der die besagten Header nicht sendet der Safari Browser ist. Alle anderen, und die müssen nicht zwangsläufig topaktuell sein, senden diese Header.
Nein, das würde ich weder sagen noch so machen, aber deine Handlungsweise lässt daraus schließen, dass deine Whitelist oder die Methodik, die dafür anwendest einen Makel haben könnte, um das mal vorsichtig auszudrücken. Ich habe eine Fehlerrate, die deutlich unter 1% liegt, aufs Monat gerechnet. Wie komme ich darauf? Nun, wenn ich falsch positive Ergebnisse habe, dann werfe ich einen Blick in die access_log. Wenn der oder die Betreffende außer dem Hauptdokument noch die dazugehörigen statischen Sourcen läd oder nicht, dann lässt sich daraus mit 99,99%iger Wahrscheinlichkeit sagen, ob der Request natürlich oder unnatürlich war. Die restlichen 0,01% gehen auf das Konto von genau den Requests für die ich bis jetzt noch keinen Weg gefunden habe, wie ich diesen von anderen unterscheiden kann. Aber das hat nur was mit dem Cachen und PHP zu tun.Hanzo2012 hat geschrieben: ↑11.08.2023, 11:24 Tja, was soll ich sagen - es war halt so.
Mögliche Erklärung ist, dass auch echte Menschen, die nix Böses vorhaben, Plugins nutzen können, die einen anderen User Agent vorgaukeln oder in ihren Augen unnötige Header entfernen. Und dann funktioniert das ganze Konzept nicht mehr.
Du sagst jetzt wahrscheinlich "Auf diese User kann ich verzichten, die haben halt Pech gehabt!". Aber nicht jeder denkt so.
Meine Methodik zum Testen war: Ich logge alle User, die laut User Agent einen Browser nutzen, der die Sec-Fetch-Header senden sollte (also Chrome ab Version xxx, Firefox ab Version yyy, ...), wo die Header jedoch fehlen. Das wären die User, die man potenziell blockieren würde. Dann habe ich mir angeschaut, was diese User gemacht haben, und ein - für meinen Geschmack - zu hoher Anteil davon hat mit meiner Seite so interagiert, wie ein echter Mensch es tun würde (es handelt sich um eine interaktive Seite).supervisior hat geschrieben: ↑11.08.2023, 11:32 deine Handlungsweise lässt daraus schließen, dass deine Whitelist oder die Methodik, die dafür anwendest einen Makel haben könnte
Wenn die statischen Sourcen im Browser-Cache gespeichert sind und noch nicht zu alt sind, dann ist das vielleicht der Grund, warum diese nicht erneut geladen werden?supervisior hat geschrieben: ↑11.08.2023, 11:32Ich habe eine Fehlerrate, die deutlich unter 1% liegt, aufs Monat gerechnet. Wie komme ich darauf? Nun, wenn ich falsch positive Ergebnisse habe, dann werfe ich einen Blick in die access_log. Wenn der oder die Betreffende außer dem Hauptdokument noch die dazugehörigen statischen Sourcen läd oder nicht
Alles wurde geloggt (IP, Request-URL, sämtliche Header).supervisior hat geschrieben: ↑11.08.2023, 11:43 Was meinst du mit loggen? Einfach nur den User-Agent oder/und auch die Request Header? Letzteres wäre die notwendige Methode.
IPs können sich ändern, insbesondere bei Mobilfunk. Ein User könnte deine Seite mit IP x zum ersten Mal besuchen und die statischen Ressourcen in seinen Browser-Cache laden. Dann kriegt er eine neue IP y und lädt die nächste Seite, wobei er die statischen Ressourcen nicht mehr laden muss. Könnte auch erst Tage später passieren.supervisior hat geschrieben: ↑11.08.2023, 11:43 Natürlich wäre eine Bewertung fehlerhaft und unvollständig, wenn man bei jedem Request mit gleicher IP nach den statischen Sourcen sehen würde. Deswegen ist auch nur der erste Request von Bedeutung und der reicht ja bereits.