Seite 1 von 1
Bestimmte Suchseiten crawlen lassen?
Verfasst: 12.02.2018, 21:51
von Kakaro
Hallo,
Gibt es eine Möglichkeit, bei Suchseiten übergeordnete Verzeichnisse vom Crawler zu sperren, aber gleichzeitig spezielle Suchseiten zuzulassen? Zum Beispiel:
Disallow: /suche/
allow: /suche/ausnahme
Oder gilt das Disallow /suche/ ausnahmslos für alle weiteren Pfade?
Verfasst: 12.02.2018, 22:11
von arnego2
Kakaro hat geschrieben:
Oder gilt das Disallow /suche/ ausnahmslos für alle weiteren Pfade?
Wenn du auf den Robots.txt dazu nutzen wirst gelten die Pfade ausnahmslos ist nach meinem Verständnis des Themas.
Verfasst: 12.02.2018, 23:01
von chris21
Wenn du auf den Robots.txt dazu nutzen wirst gelten die Pfade ausnahmslos ist nach meinem Verständnis des Themas.
Falsch.
(wie immer)
@Kakaro:
Dein Weg ist möglich, siehe hier:
https://support.google.com/webmasters/a ... 2596?hl=de
unter "Weitere Beispieldatei".
Verfasst: 12.02.2018, 23:04
von arnego2
chris21 hat geschrieben:
Wenn du auf den Robots.txt dazu nutzen wirst gelten die Pfade ausnahmslos ist nach meinem Verständnis des Themas.
Falsch.
(wie immer)
@Kakaro:
Dein Weg ist möglich, siehe hier:
https://support.google.com/webmasters/a ... 2596?hl=de
unter "Weitere Beispieldatei".
So I stand corrected. Na und irren ist menschlich. Immerhin hat er seine Lösung bekommen obwohl nicht alles was Google von sich gibt auch der Wahrheit entspricht.