Seite 1 von 1

Botuntaugliches Javascript Menü

Verfasst: 27.01.2015, 11:49
von mahenni
Hallo zusammen,

meine Vermutung vor einigen Wochen war, dass auf zalando.de das Header-Menü (links neben der Suchbox) ganz bewusst mittels Javascript umgesetzt wurde. Schaltet man Javascript aus, funktioniert die Dropdown Funktion nämlich nicht. Dabei wäre es ja nicht schwer, den Dropdown mit reinem CSS zu realiseren. Höchstwahrscheinlich geht es dabei um Siloing ...dachte ich zumindest bis heute.

Ich hatte nämlich auf meiner Website ein ganz ähnliches Menü eingebaut und musste enttäuscht feststellen, dass die Javascript Links trotzdem in den Webmaster Tools erfasst werden. Google austricksen geht also nicht :(

...jetzt frage ich mich nur, ob ich die Intention der Zalando SEOs falsch verstanden habe. Könnte das noch andere Gründe haben, ein Menü so umzusetzen? Oder haben sie es vielleicht besser programmiert als ich und der Googlebot erkennt die Links nicht. Eine Browserweiche scheint jedenfalls nicht eingebaut zu sein. Zumindest bekommt man dieselbe Version angezeigt, wenn man die Seite als User Agent "Googlebot 2.1" aufruft.

Ich geb zu, ich habe die Codezeilen, die bei zalando.de das Dropdown Menü generieren noch nicht gefunden. Letztendlich müsste aber eine Funktion aus den in Quelltext hinterlassenen Strings (direkt nach der Liste <ul class="subNav">...</ul>) echte Links bauen und diese dann ins Dokument einhängen.

Verfasst:
von

Verfasst: 18.02.2015, 21:35
von Malte Landwehr
Du kannst das JavaScript, das die Links generiert, per robots.txt sperren. Dann kann Google aber die Mobile-Tauglichkeit Deiner Seite nicht mehr so gut prüfen.

Oder Du könntest das JavaScript, das die Links generiert, dynamisch in JavaScript nachladen. Das verfolgt Google angeblich noch nicht. ;-)

Verfasst: 18.02.2015, 22:35
von Corlath
Wenn du die Seite als Googlebot ansurfst, bist du zumindest mal kein Googlebot. Das wissen die Zalando Jungs ganz sicher.
Eine Prüfung erfolgt wenn überhaupt nur auf IP-Basis.

Zalando ist überhaupt ein gutes Beispiel dafür, wie man seine Seite mit Bergen an nutzlosem Text befüllen kann.
Liebe Pumps, liebe Stiefeletten, liebe Peeptoes, liebe Schuhe!
Das Budget für Links und die Truppe hätte ich gerne und endlich hätte ich wirklich ausgesorgt.

Wie auch immer, noch nie probiert, aber könnte ich das JS für Mobiles nicht ausschließen? Da passiert doch eh was im Hintergrund, denn responsive ist das in meinem Browser nicht.

Re: Botuntaugliches Javascript Menü

Verfasst: 21.02.2015, 01:33
von nerd
Geht dabei wohl nur darum das menu klein (> Ladezeiten) zu halten. Das erste level des menues ist normales html, die untermenues sind wohl nur ein js-array und werden dann unten als ul-li angehangen. Ist deutlich kleiner als wenn man das komplett als fertiges html in den sourcecode schreibt.

Verfasst: 21.02.2015, 13:52
von mahenni
@Malte

Und wenn google dann einen Schritt weiter ist, muss ich ein Javascript nachladen, das ein JS nachläd, das ein JS nachläd, das wieder ein JS nachläd ;) ...das ist mir auf dauer zu anstrengend, aber danke für den Tipp! Habe auch mal gehört, man kann die Links in einem iFrame verstecken (der noindex ist).

@Corlath

Wenn man richtig cloaken will, würde es nicht Sinn machen, die "fake"-Version bestimmten IPs UND bestimmten Useragents anzuzeigen? Also:

Useragent = Googlebot und IP weist auf Google hin -> Fake-Version
Useragent = Googlebot und IP unbekannt -> Fake-Version
Useragent != Googlebot und IP weist auf Google hin -> Fake-Version
Useragent != Googlebot und IP unbekannt -> normale Version

Oder habe ich da nen Denkfehler?

@nerd

Danke! Schätze ich war mal wieder zu misstrauisch und der wahre Grund ist am Ende sowas banales wie die Ladezeit :) Klingt zumindest plausibel.

Verfasst: 21.02.2015, 15:27
von Corlath
Keine Ahnung, ob die Faken wollen, ich meinte nur, dass deren Abfrage wenn überhaupt auf IPs und nicht auf UA basiert, sprich du kannst das nicht ganz so leicht reproduzieren.

Verfasst: 22.02.2015, 00:11
von Vegas
mahenni hat geschrieben:Wenn man richtig cloaken will, würde es nicht Sinn machen, die "fake"-Version bestimmten IPs UND bestimmten Useragents anzuzeigen?

Useragent = Googlebot und IP weist auf Google hin -> Fake-Version
Useragent = Googlebot und IP unbekannt -> Fake-Version
Useragent != Googlebot und IP weist auf Google hin -> Fake-Version
Useragent != Googlebot und IP unbekannt -> normale Version

Oder habe ich da nen Denkfehler?
Yep, Denkfehler, wenn dann nur IP basiert. Sonst wäre es für jedermann leicht herauszufinden, daß Du cloakst. Wirklich sinnvoll ist das Spiel aber nicht, denn sobald der Bot mal durchflutscht, bist Du Toast. Solche Tricks hat Zalando sicher nicht nötig, wäre von der Risiko zu Nutzen Abwägung her grotesk.

Verfasst: 22.02.2015, 13:28
von mahenni
Vegas hat geschrieben: Yep, Denkfehler, wenn dann nur IP basiert. Sonst wäre es für jedermann leicht herauszufinden, daß Du cloakst.
Das leuchtet ein. Andererseits - schaut man sich bei Affiliate Seiten mal um, findet man gecloakte ausgehende Links zu Amazon ohne Ende. D.h. nicht IP-basiert, sondern du kannst es ganz einfach rausfinden, wenn du dich als Googlebot ausgibst. Und ich meine jetzt nicht kleine Wordpress Blogs, sondern eher sogar die erfolgreichen Affiliates. Ein seeeehr großer Affilate Shop mit gecloakten Amazon Links reimt sich beispielsweise auf Nagelfeile und gehört Axel Springer.

Vielleicht fällt es ja unter Kavaliersdelikt, wenn in ausgehenden Links ein paar Parameter weggelassen werden. Das ist sicher nicht so blackhat, wie andere Inhalte anzuzeigen. Cloaking ist es wohl aber troztdem.

Aber ich schweife ab :) ...bei Zalando gebe ich dir recht. Da will ich auch gar nichts unterstellen.