Seite 3 von 6

Verfasst: 02.03.2019, 09:48
von supervisior
@Lyk

Ich gebs auf Dir. Wie kann man nur so viel Schwachsinn im Kopf haben. :crazyeyes: :crazyeyes:

Verfasst:
von

Verfasst: 02.03.2019, 10:59
von staticweb
> Ich habs mir anders überlegt und kommentiere Deine Anmerkungen nun doch, weil man so viel Schwachsinn einfach nicht stehen lassen kann. Das tut ja fast schon weh.

Ich hab doch gewusst, dass du schlaflose Nächte haben wirst, wenn andere denken, dass du Unrecht hast. :-)

> Nachdem Du es aber doch tust, muss ich Dir zum x-ten Mal attestieren, dass Du von Nichts eine Ahnung hast.

Da sind sie wieder deine Beleidigungen. Da weiß ich bei dir immer, dass die Argumente fehlen.

> Was Du da kritisierst, ist Deine Meinung, aber die hat eher was von einer Verschwörungstheorie und hat absolut nichts mit meinen Beweggründen zu tun.

Habe noch etwas Geduld, dann wirst auch du merken was die Zukunft bringt.

> Prahlhans

Warum sollte das nicht gehen mit Phantasy-Keywords, die keiner sucht!?

> Was die Konsequenzen für den betroffenen Nutzer sind, ist eine andere.

Das klang im Original noch anders.

> Es brennt Dir unter den Nägeln endlich zu erfahren, was ich da beiläufig erwähnt habe?!

Nein, diese Naivität nicht existenten Wundermitteln hinterherzurennen, die fehlt mir einfach.

> Wenn etwas Open Source ist, dann ergibt sich daraus nicht die Schlussfolgerung, dass es Freeware sein muss.

Den Apache kann ich kostenlos herunterladen und er wird auch von diversen Tool- Und Softwareanbietern genutzt. Du solltest dich mal über den Unterschied zwischen OS und FW informieren.

> Warum einen dedizierten Server verwenden, dern man nur deswegen braucht, weil die Architektur des Apache Servers ein Performancefresser ist und man anstelle dessen auch einen VPS verwenden kann und dabei noch schneller und vor allem billiger ist als ein dedizierter Server.

Wenn du etwas vermarktest solltest du wenigstens die Begrifflichkeiten genau benennen. Du willst also den Grund der Wahl zwischen dedizierter Hardware und virtuellen Servern darlegen und dieser wäre die WSS. Mal abgesehen davon, dass ich hier noch zwischen einem root und managed server unterscheiden muss, bin ich bei letzterem bei der Auswahl der WSS vom Provider abhängig.

> Hast das verstanden?

Ich frage mich ob du es verstanden hast, denn bei der Auswahl des Webservers schaue ich auf das Preis/Leistungsverhältnis und viele weitere Dinge als nur auf die verwendete WSS! Und wenn ich ein superschnelles Hosting benötige und einen hohen Traffic habe, wechsle ich halt auf nginx oder andere weniger verbreitete WSS. Nur ist das keine Geheimnis und schon gar kein Wundermittel. Und Verbesserungen um den Faktor 10 gehen nur wenn ich vorher ein total schwaches oder falsch konfiguriertes Hosting hatte.

> So und jetzt bitte Argumente!

Im Gegensatz zu dir habe ich es (mit Ausnahmen) nicht so damit andere User runterzumachen um meine Beiträge zu rechtfertigen.

Verfasst: 02.03.2019, 11:06
von supervisior
@staticweb

Ich hätte es eigentlich wissen müssen, dass dort, wo Schwachsinn ist, eigentlich nur noch mehr Schwachsinn produziert werden kann.

HILFE

Verfasst: 12.03.2019, 16:24
von supervisior
So, nachdem @Hanzo2012 so gnädig war dieses Thema wieder zu entsperren, fahre ich mit meinem Thema mal fort, obwohl ich eigentlich nicht gedacht hätte, welche Erkenntnisse und Folgen entstehen.

Ursprunglich gings mir darum den bei 1 meiner Projekte sehr hohen Anteil an IE Nutzern (~15-20%) loszuwerden. Nicht willkürlich, sondern weil ein nicht unerheblicher Mehraufwand entsteht, wenn man für diesen Browser sehr oft eine Extrawurst basteln muss. Bei diesen IE Nutzern handelt(e) es sich zu einem fast 90%igen Anteil um gewerbliche Nutzer, die sich kostenlos bei mir bedienen. Vor dem Hintergrund, dass mir dieses eine Projekt vom ersten Tag an Kopfzerbrechen bereitet hat dieses zu monetarisieren und ich deswegen mit einer Paywall schwanger gehe, war mir der IE ein Dorn im Auge, weil dafür ein exorbitanter Mehraufwand nötig geworden wäre. Noch mehr Arbeit in etwas reinstecken, wo ich vorher nicht weiß, ob sich der Aufwand auszahlt, war mir dann doch zu viel. So viel mal dazu, aber später noch mehr.

Parallel zu dem IE Block, habe ich bei dem gleichen Projekt eine Anti-Adblock Funktion eingebaut und da kommt keiner dran vorbei. Auch das nicht willkürlich, sondern eben vor dem Hintergrund, dass noch mehr vom Stamm der Gebrüder Nimm sich kostenlos bedienen. Ich hatte zwar keine Erwartung darin, dass sich einer der Adblocker überzeugen lässt den Adblocker zu deaktivieren, aber es sind dann doch bis zu 20%, die spätestens nach dem 2ten Besuch den Adblocker deaktivieren. Somit und auch wenn nicht im unmittelbaren Fokus hat diese Maßnahme was gebracht, wenngleich ich es nicht in Geldwert berechnen kann.

In Bezug auf die Monetarisierung haben mir die Adblocker vorher schon nichts eingebracht. Nichtsdestptrotz und um mir selbst nichts vozumachen, werden die Adblocker aus der Statistik herausgefiltert. Gleiches gilt für die IE Nutzer, sodass ich unterm Strich jetzt ca.20 bis 25% weniger Besucher habe. Hört sich zunächst mal fast selbstzerrstörerisch an 20% an Besuchern einfach auszusperren, aber unterm Strich hat es sich trotzdem gelohnt, weiß aber nicht, ob es unmittelbar damit zusammenhängt, dass sich Adsense Einnahmen trotz bis zu 25% weniger Besucher mehr als verdreifacht haben und das nicht nur für 3 Tage.

Ich wusste zwar schon vor dieser Blockaktion, wie sich meine Nutzerbasis größtenteils zusammenstellt, aber nachdem ich die Nichtgeblockten, die IE Nutzer und die Adblocker getrennt voneinander tracke, ergibt sich dadurch ein viel bessere Auswertung und das vor allem was die geplante Paywall anbetrifft, die ich durch diese neue Erkenntnis komplett verworfen habe, bzw. gegen was anderes ersetzt habe, bzw. erstzen werde, was weitaus erfolgversprechender sein wird. Im Fokus stehen nach wie vor die gewerblichen Nutzer. Dummerweise und ausgerechnet diese sind zu einem erheblichen Anteil IE Nutzer. FAst könnte man meinen ich hätte mir mit der Blockakstion selbst ins Bein gefi**, aber dem ist nicht so. ;) Offenbar ist mein Content dann doch so unique, dass schon nach wenigen Tagen fast 80% der zukünftigen Cashcows und ehemals IE Nutzer den Browser gewechselt haben.

Es war zwar ein erheblicher Aufwand bis ich alles so hatte, wie vorgesehen, aber unterm Strich hat es sich schon nach wenigen Tagen in bare Münze ausgezahlt. Darüberhinaus konnte ich die Erkenntnis gewinnen, dass eine Paywall (noch) keinen Sinn macht, lasse das aber mal offen. Dafür habe ich einen besseren Ersatz gefunden der sich aber erst noch bewähren muss, weil erst seit 2 Tagen im Einsatz.

Bis hierher gings nur um Kohle. Alles was jetzt kommt, hatte ich nicht auf dem Zettel stehen.

Diese Blockaktion hat nun weiterführende Folgen. Die Zahl der versuchten Hackangriffe hat sich mehr als halbiert. Gänzlich auf NULL reduziert haben sich die Scraper und all jene, die sich als realer Nutzer ausgeben, aber eben keine sind. Das geht sowohl auf das Konto des IE Blockings und des Anti-Adblockings. Ich bin in Sachen Gefahrenabwehr gut aufgestellt, sodass es mich zwar freut die Firewall entlastet zu haben, aber das beeindruckt mich weniger als die Auswertung der IE Blocks. Diese konnte ich zwar bekehren, ;) aber die Auswertung spuckt mir auch aus, wer sich bekehren ließ und sich hoffentlich noch lässt.

Man mag mir vorwerfen, dass ich das etwas zu übertrieben bewerte, aber die Sensibilität in Bezug auf Sicherheit liegt meinem beruflichen Werdegang zugrunde und das prägt einfach. Was mich nun also so und regelmäßig vom Hocker haut, sind die Unternehmen, die immer noch mit veralteter und unsicherer Technik im Internet untwegs sind. Das fängt an mit den Blue Chips aus dem Dax und endet mit Sicherheitsunternehmen spezialisiert auf IT Sicherheit. Also egal, ob BMW, Mercedes, deren Banken, bekannte Autoteilezulieferer, sämtliche Versicherungsgesellschaften wie Allianz, AXA u.a. oder die IT Abteilung der Sparkassen verwenden ebenso veraltete Technologien wie die NATO, das Bundesfinanzministerium und viele andere hochranginge Landes- und Bundesbehörden. Da fällt mir einfach nichts mehr ein. Alle reden von Datenspionage, aber wenn man es den bösen Buben so leicht macht, ist das absolut kein Wunder. Es passiert inzwischen kein Tag und noch nicht mal eine Stunde wo es mich nicht vom Hocker haut. Entschuldigen und noch weniger rechtfertigen lässt es sich nicht und jeder Admin gehört an die Wand genagelt, weil das die eigentlich Übelätäter sind. Und natürlich auch die sog. Sicherheitsbeauftragten.

Ich bin fassungslos?!

Verfasst: 12.03.2019, 21:21
von nerd
supervisior hat geschrieben:Seit heute greift auch mein niet- und nagelfester Anti-Adblocker inkl. Anti Privacy Tracking Schutz im Firefox.
Wow; wird bestimmt ein aehnliches erfolgserlebniss wie diese unknackbaren kopierschutz mechanismen bei spielen und filmen. So effektiv, dass die leute dann tatsaechlich bis zu 2 tage nach dem release warten muessen bis sie die gecrackte version von irgend einem russischen hoster herrunterladen koennen... :roll:

Verfasst:
von

Verfasst: 13.03.2019, 03:42
von Hanzo2012
supervisior hat geschrieben:Diese Blockaktion hat nun weiterführende Folgen. Die Zahl der versuchten Hackangriffe hat sich mehr als halbiert. Gänzlich auf NULL reduziert haben sich die Scraper und all jene, die sich als realer Nutzer ausgeben, aber eben keine sind. Das geht sowohl auf das Konto des IE Blockings und des Anti-Adblockings.
Wie kannst du da so sicher sein, dass du jetzt keinerlei Scraper mehr auf der Seite hast? Ein normaler Headless Browser (z. B. Phantom.js oder einfach Chrome im headless mode) dürfte deine Seite doch nach wie vor korrekt anzeigen und in der Lage sein alle Inhalte abzugreifen, oder nicht? User Agent Strings kannst du da eh nicht trauen, und diese Browser laden auch deine Werbung. Oder versuchst du diese headless Browser zu erkennen? (Dann solltest du aber gut aufpassen, dass du nicht versehentlich auch Suchmaschinen aussperrst, denn auch die laden und rendern ja deine Seite!)
supervisior hat geschrieben:Darüberhinaus konnte ich die Erkenntnis gewinnen, dass eine Paywall (noch) keinen Sinn macht, lasse das aber mal offen. Dafür habe ich einen besseren Ersatz gefunden der sich aber erst noch bewähren muss, weil erst seit 2 Tagen im Einsatz.
Magst du das vielleicht noch etwas näher ausführen, oder willst du uns nur sagen „Ich habe was, aber ich verrate es nicht“? ;)

Verfasst: 13.03.2019, 08:01
von supervisior
Also den User Agent hab ich komplett aussen vorgelassen. Nicht weil der fehlertolerant ist, sondern weil ich gar nicht darauf gekommen wäre den zur Identifizierung heranzuziehen. Das mit den Scrapern war eher ein Nebeneffekt, wobei ich schon vor dieser Blockaktion etwas hatte, um den Scrapern einen Riegel vorzuschieben. Da ging aber eine längere Zeit der Beobachtung voraus. Beobachten im Sinne von wie viele Seiten werden in welcher Zeit aufgerufen und wie lange ist die Verweilzeit je Einzelseite. Geholfen hat mir dabei einerseits Matomo, im Wesentlichen aber ein einfaches Tracking mittels Session Überwachung, oder im Klartext bei jedem Seitenaufruf wird ein Zähler gestartet und das in die Session geschrieben. Wenn eine bestimmte Anzahl an Seitenaufrufen erreicht war, hab ich mir eine Nachricht schicken lassen. Dieses Überwachen musste ich aber nicht erst programmieren, sondern ist in meiner Software schon vorhanden gewesen und habs nur etwas gepimped. War also fast kein Aufwand. Das war der allererste Schritt vor allem anderen, um überhaupt zu verifizieren, ob sich vorherige rein optische Beobachtungen mittels Live View in Matomo bestätigen lassen.

Im nächsten Schritt habe ich zusätzlich zu einer Benachrichtigung die IP Adresse in eine blocklist schreiben lassen. Wenn also eine vorgebene Menge an Seitenaufrufen erreicht war, wurde der Nutzer für 24 Std. gesperrt, aber freundlich mit einer schönen "Ich hab dich für 24 Std. nicht mehr lieb" Seite. :) War alles kein großer Akt das zu machen, weil das Gro schon vorhanden war. Aber wie schon erwähnt, das waren die allerersten Schritte noch weit vor dieser eigentlichen Blockaktion. Drauf gekommen, dass hier etwas nicht ganz koscher sein kann. bin ich über sporadische und optische Beobachtungen in Matomo, bzw. der Live View Funktion. Wenn 100 Seiten oder gar mehr in 5 Minuten von einem "Smartphone" aufgerufen werden, kann da einfach was nicht stimmen. Das geht technisch einfach nicht, wenn man zum Seitenwechsel Selects aufrufen muss, um weiter zu kommen und schon gleich gar nicht mitm Handy.

Für die Blockaktion habe ich die o. g. Funktion bis auf Weiteres deaktiviert. Die Benachrichtigung ist aber weiter aktiv.

Ein realer Nutzer definiert sich dadurch, dass er zumindest die Default Einstellungen ON hat, also Cookies und Javascript. Beides setze ich voraus. Ist eines von beiden deaktiviert, gehts schlichtweg nicht weiter und das unabhängig der Blockfunktion, hilft aber indirekt beim identifizieren der Scraper. Wenn dann zusätzlich noch ein Adblocker aktiv ist oder/und der Privacy Schutz vom z.B. Firefox gehts erst recht nicht weiter. Das dient in erster Linie aber zum Blocken der Adblocker. Zum Nebeneffekt wurde es bei den Scrapern. Wenn also so ein Headless Browser oder ein normaler User aber mit Scraper Plugin unterwegs ist, dann fehlt mind. Cookie oder/und Javascript oder ein Adblocker ist aktiv. Irgendwas fehlt immer, aber eine (1) fehlende Funktion reicht aus, dass es nicht weitergeht. Man könnte das noch endlos erweitern, um z.B. zu checken, ob Bilder oder Schriften geladen werden. War/ist aber nicht wirklich nötig, wenngleich man die Überprüfung damit noch weiter härten könnte. Der normale Nutzer merkt davon nichts, sodass es nicht so ist, wie man meinen könnte, dass ich die Hälfte aller Besucher aussperren würde. Es ist maßgeschneidert auf die unechten Nutzer.

Die Quintessenz ist nun und das ist nun die Antwort auf deine Frage, wie ich drauf komme, dass ich so sicher bin allen Scrapern einen Riegel vorgschoben zu haben. Seit ich diese Blockaktion aktiv habe, bekomme ich keine Benachrichtigung mehr, dass wieder einer versucht in 5 Minuten oder weniger 100 Seiten plus x aufzurufen, weil schon der Versuch etwas zu scrapen spätestens beim Aufruf der 2. Seite verhindert wird.

Das hört sich alles nach viel Arbeit an, war es aber gar nicht. Das meiste ließ sich mit 2-Zeiler Scripts erledigen und den Rest mit einfachsten Methoden, die ohnehin schon vorhanden waren/sind. Viel mehr Zeit hat es gebraucht, um festzustellen, dass alles ganz einfach ist. ;)

Bezüglich der Paywall Alternative ist diese Alternative kein Geheimnis. Wie oben schon erwähnt, habe ich vor dieser Blockation erstmal das Tracking erweitert, um zu erfahren wer meine Besucher sind und wie wertvoll meine Besucher sind und ob die für Content was bezahlen könnten/würden. Da war ich noch auf dem Paywall Dampfer und hab da noch viel zu kompliziert gedacht. Ein einfaches get hostname hat mir dann die Augen geöffnet und kam auf Grund der signifikanten Hostnamen, hinter denen das Who is Who einer bestimmten Branche stecken, zu dem Ergebnis, dass es mehr Sinn macht ganz bestimmte Teile meines Contents als Produkt zu verkaufen. Auch dafür musste ich nicht erst was programmieren, weil ich eine Shop Software für meine Anforderung missbrauche und da das verkaufen von Produkten die eigentlche Hauptaufgabe dieser Software ist, war es dann mehr eine Frage das Ganze optisch zu verpacken.

Fragen beantwortet? ;)

Verfasst: 13.03.2019, 10:58
von staticweb
>> Dann solltest du aber gut aufpassen, dass du nicht versehentlich auch Suchmaschinen aussperrst, denn auch die laden und rendern ja deine Seite!

Genau das wird eines Tages passieren. Spätestens wenn Quality Rater auf die Präsenz aufmerksam werden. Da Google ja nicht weiß was im Hintergrund für Mechanismen greifen, könnte es auch als Cloaking aufgefasst werden.

> Wenn also so ein Headless Browser oder ein normaler User aber mit Scraper Plugin unterwegs ist, dann fehlt mind. Cookie oder/und Javascript oder ein Adblocker ist aktiv.

Scheinbar hast du Hanzo2012's Beitrag nicht richtig gelesen. Ein Headless Chrome kann alles simulieren. Er hat nur keine UI. Da müsstest du schon auf Maus-Ereignisse prüfen.

Verfasst: 13.03.2019, 11:25
von supervisior
Was auch immer ein Quality Rater sein soll, is mir der Pippi. Solange sich der verhält, wie 99.99% der anderen Nutzer passiert goar nix. Wie Du da auf Cloaking kommst, ist mir ein sehr großes Rätsel. Welchen Vorteil sollte ich haben und was sollte ich mir mit der Aktion erschleichen, ha?

Was Dir lieber statisches Web entgangen ist, ist dass ein formeller Headless Chrome einen dementsprechendes UserAgent hat, aber nachdem ich ohnehin keinen User Agent überprüfe, gibts noch was, was mir Pippi ist. Wer Böses im Sinn hat, der ist doch nicht so blöd sich offensichtlich identifizierbar zu machen.

Der Spruch stammt zwar aus der Medizin, aber lässt sich für fast alles einsetzen: "Wer heilt, äh, wers gemacht und ausprobiert hat, hat Recht!" Das ist der Unterschied zwischen Deiner Theorie und meiner Praxis, ätsch. ;)

Verfasst: 13.03.2019, 11:31
von Hanzo2012
Headless Browser führen JavaScript aus und nehmen Cookies an. Sie laden deine Werbung genau so wie es auch ein „echter Browser“ täte.
Nichtsdestotrotz gibt es Wege, wie man sie erkennen kann (siehe Artikel, den ich weiter oben verlinkt habe).
Ich wollte hauptsächlich darauf hinaus, dass du vorsichtig sein solltest ...
1) ... mit absoluten Aussagen wie dass du jetzt NULL Scraper hast. Denn die richtig gut gemachten Scraper erkennst du gar nicht so leicht wie du bislang die offensichtlichen Scraper erkannt hast. Was wenn ich einen ganz normalen Browser benutze, an den ich von außen Mausbewegungen und Klicks schicke und dann über „Speichern unter“ nach und nach alle Seiten abspeichere? Natürlich nicht zu schnell und mit wechselnden IPs und Browsern. Quasi unmöglich zu erkennen.
2) ... dass du dir nicht ins Bein schießt, indem du Suchmaschinen aussperrst. Da würde ich den Hostname anschauen und alles whitelisten, was offensichtlich Google oder ein anderer wünschenswerter nicht-menschlicher Besucher ist (auch hier nicht dem User Agent trauen). Problem ist natürlich, dass diese Namen sich mit der Zeit ändern können.

Verfasst: 13.03.2019, 11:47
von supervisior
Du hast natürlich recht. Auch wenn ich vieles geschrieben habe, habe ich nicht alles bis ins letzte Detail beschrieben, weil die meisten ohnehin schon vorher ausgestiegen sein dürften. Du darfst also voraussetzen, dass ich einerseits Vorkehrungen getroffen habe, dass ich nicht übers Ziel hinausschieße und womöglich den falschen blocke. Dazu gehört aber auch, dass jede Funktion ein Fallback Funktion hat. Wenn das eine nicht greift, dann greift eben das Andere.

Einen Scraper und selbst den Besten zu identifizieren ist gar nicht so schwer, weil je besser, umso größer der Schwachpunkt und das ist die Verhaltensweise. Kein realer Nutzer ruft eine exorbitant oder sagen wir mal eine weit über dem Durchschnitt liegende Zahl an Seiten in kürzester Zeit auf. Hinzu kommt die Verweilzeit je Seitenaufruf und navigiert willkürlich durch Seiten, die gar nicht miteinander verlinkt sind. Das und noch einiges mehr definiert ein Muster, das sich mehr als deutlich von einer natürlichen Person unterscheidet und eine deutlich geringere bis gar keine Fehlertoleranz hat als der Versuch das über technische Merkmale erkennen zu wollen.

Verfasst: 13.03.2019, 12:02
von staticweb
> Was auch immer ein Quality Rater sein soll, is mir der Pippi. Solange sich der verhält, wie 99.99% der anderen Nutzer passiert goar nix.

Keine Ahnung wie die vorgehen. Da wirst du dich überraschen lassen müssen.

> ... dass ein formeller Headless Chrome einen dementsprechendes UserAgent hat ...

Habe es bisher nicht getestet, aber der sollte über Argumente manipulierbar sein.

> "Wer heilt, äh, wers gemacht und ausprobiert hat, hat Recht!"

Ja, aber nur wenn die Nebenwirkungen kalkulierbar bleiben.

> Das ist der Unterschied zwischen Deiner Theorie und meiner Praxis, ätsch.

Ich habe nichts gegen solche Experimente, würde dafür aber kein wertvolles Projekt opfern und auch keine IE-User aussperren, wenn die vielleicht Conversions bringen.

Verfasst: 13.03.2019, 12:23
von supervisior
staticweb hat geschrieben:>
Ich habe nichts gegen solche Experimente, würde dafür aber kein wertvolles Projekt opfern und auch keine IE-User aussperren, wenn die vielleicht Conversions bringen.
Danke! ;)

Das Projekt wo ich das einsetze, ist wertvoll. Wertvoll weil ich eine Menge Zeit darin investiert habe. Ich kann mich über Zuwachsraten nicht beklagen und ranke damit besser als ich es mir je erträumt hätte. Problem daran ist nur, dass die Nutzerbasis ungeeigent scheint, um die Seite halbwegs monetarisieren zu können. Alle Dir bekannten Werte, um die Qualität einer Seite bestimmen zu können, sind mehr als nur im grünen Bereich, aber die Nutzerbasis spielt nicht mit.

In gewisser Hinsicht kann ich egal, was ich mache eigentlich nur gewinnen, wenn die Einnahmen über Werbung das Kriterium dafür sind. Von daher kann ich es mir auch erlauben so eine Blockaktion zu fahren. Und glaub mir, dass es mir wehtut anzusehen, wie 15% bis 20% der Nutzer == IE Nutzer ausen vor bleiben müssen, wenn diese IE Nutzer die Platzierung in den SERPS mitliefern. Alles was größer als 5 ist kommt darin nicht vor und das bei über 100.000 Seiten!

Pervers oder? Aber was hilft mir die beste Conversionsrate in den Suchergebnissen, wenn die Conversionsrate bei den Anzeigen so schlecht ist, dass ich noch Geld dafür zahlen müsste, um Geld zu bekommen.

Verfasst: 13.03.2019, 16:14
von top
Was ich mich die ganze Zeit frage: Würde es nicht reichen dem IE-Nutzer bei jedem Seitenaufruf einen fetten Banner zum wegklicken vorzusetzen, in dem der Seitenbesucher darüber aufgeklärt wird, dass der veraltete Browser nicht mehr unterstützt wird und man mit Darstellungs- und Funktionsfehlern rechnen muss? Ähnliches hat beim IE6 damals schließlich auch funktioniert. :wink:

Das Aussperren von anderen unliebsamen Zugriffen sollte doch auch ohne solch drastischen Methoden möglich sein.

Ich weiß ja nicht ab wie viel Seitenaufrufen pro Sekunde du von einem Bot ausgehst: Wenn ich beim Pendeln in der Bahn mit meinem Laptop unterwegs bin, weiß ich dass es da größere Abschnitte gibt bei denen kein Mobiles Internet verfügbar ist. Bei Seiten die mich interessieren, klicke ich mich manchmal auf Verdacht mit [Strg]-Klick durch die Menüpunkte, um die Folgeseiten schon mal im Hintergrund geöffnet zu haben. 8)

Verfasst: 13.03.2019, 16:27
von supervisior
top hat geschrieben:Was ich mich die ganze Zeit frage: Würde es nicht reichen dem IE-Nutzer bei jedem Seitenaufruf einen fetten Banner zum wegklicken vorzusetzen, in dem der Seitenbesucher darüber aufgeklärt wird, dass der veraltete Browser nicht mehr unterstützt wird und man mit Darstellungs- und Funktionsfehlern rechnen muss? Ähnliches hat beim IE6 damals schließlich auch funktioniert. :wink:
Guter Mann baut vor und hatte ich 8 Wochen lang drin als Vorankündigung über die bevorstehende Blockierung. Das erschien einmal bei jeder neuen Sitzung und konnte man dann wegklicken. Zusätzlich gabs für die IE Nutzer nochmal einen dicken roten Streifen mit einem Countdown in wie vielen Tagen Schluss mit lustig ist, aber das hat keinen interessiert und vermute auch warum. In jedem Fall kam das nicht von heute auf Morgen und auch nicht ohne rechtzeitige Vorankündigung.
top hat geschrieben:
Das Aussperren von anderen unliebsamen Zugriffen sollte doch auch ohne solch drastischen Methoden möglich sein.

Ich weiß ja nicht ab wie viel Seitenaufrufen pro Sekunde du von einem Bot ausgehst: Wenn ich beim Pendeln in der Bahn mit meinem Laptop unterwegs bin, weiß ich dass es da größere Abschnitte gibt bei denen kein Mobiles Internet verfügbar ist. Bei Seiten die mich interessieren, klicke ich mich manchmal auf Verdacht mit [Strg]-Klick durch die Menüpunkte, um die Folgeseiten schon mal im Hintergrund geöffnet zu haben. 8)
Einen normalen Link und gleich mehr davon in kurzen Zeitabständen auch mitm Handy anzuklicken, ist sicherlich kein Problem. Aber um bei dem besagten Projekt weiterzukommen, musst Du bis zu 10 Selects auswählen (== Filter) und das schaffst dann auch mitm PC nicht so schnell. Wir reden hier außerdem von Intervallen im 1 bis 3 Sekunden Takt.