Warum registrieren? Nur als registriertes Mitglied vom ABAKUS Forum hast Du vollen Zugriff auf alle Funktionen unserer Website.

Crawler/Bots am "Klicken" meiner Amazon-Links hindern

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
supervisior
PostRank 9
PostRank 9
Beiträge: 1358
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 31.08.2019, 15:40

Joe85 hat geschrieben:
31.08.2019, 14:48
Das geht nur über Sessions, bzw. Session Cookies, was aber Programmierarbeit erfordert falls die jeweilige Software so was nicht schon an Board hat. Damit ist die Trefferquote aber nahezu 99.99%.
Was genau meinst du denn mit "Software"? Ich betreibe eine kleine Werbeagentur und hab da einige Webentwickler am Start, die das vielleicht hinkriegen würden. Allerdings weiß ich gerade nicht so genau, wie ich den Auftrag beschreiben soll. Was genau müssten die für mich entwickeln?
Mit Software meinte ich das oder die installierten Programm/e auf Deinem Webserver.

Ich könnte Dir das natürlich erklären, wie man das mit den Session Cookies machen kann. Nachdem das im Detail dann doch etwas komplizierter ist, ist die Gefahr groß, dass Du das auf Grund mangelndem Verständnis falsch oder fehlerhaft weiter vermittelst. Deine Entwickler sollen sich das einfach mal durch den Kopf gehen lassen, wenn ein Nutzer Schrägstrich Bot keine Cookies speichert, bzw. zwar speichert, aber nur bis zum nächsten Aufruf, sodass der Cookie immer und immer wieder neu gesetzt werden muss. So ein Verhaltensmuster lässt sich identifizieren, allerdings muss man aufpassen, dass man nicht die guten Bots als falsch identifiziert und spätestens dann wirds kompliziert. Das kann man aber sehr gut lösen.

Was die Schreibweise des User Agens anbetrifft, solltest du immer Kleinschreibung bevorzugen, jedoch mit einem [NC] hinten dran. Im Fall seoscanner würde ich das ".net" weglassen. Nimm Bezeichnungen, die keine Sonderzeichen im Namen enthalten, also keine -. / , usw.

Anzeige von: