registrieren registriertes Mitglied


Anzeige

Anzeige

Entfernen von alten #! hashbang URLs aus dem Google Index

Alles über Google diskutieren wir hier.
Michael_W
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 12.08.2015, 20:48

Beitrag Michael_W » 12.08.2015, 20:55 Entfernen von alten #! hashbang URLs aus dem Google Index

Hallo zusammen,

wer kann mir zu folgendem Problem einen Tipp geben ;)? Vielen Dank im Voraus!

Wir sind heute, nachdem wir ca. 2 Monate auf einem MEAN-Stack mit Hashbang unterwegs waren, mit einer neuen Version unserer Webseite (auf Webflow) live gegangen. Zielsetzung ist es jetzt die alten Links im Index möglichst schnell durch die neuen zu ersetzen. Link Juice dürfte eher zweitrangig sein. Einige Fakten/Infos:

Alte Seite:
- Die alte Seite nutzt Hashbangs #!.
- URL Struktur: https://www.domain.de/#!/text/text
- Über prerender.io wurden escaped_fragments generiert.
- Die URLs wurden als Sitemap bei Google eingereicht (mit #!).
- Die alte Seite war max. 2 Monate live und hatte keine wirklichen Backlinks.

Neue Seite:
- Heute haben wir die neue Seite mit Hilfe von Webflow gelaunched.
- Die neuen URLs sehen folgendermaßen aus: https://www.domain.de/folder/name-of-the-page
- Ca. 60% der alten Seiten hätten theoretisch eine korrespondierende Seite auf der neuen Seite. Die restlichen hätten übergeordnete Seiten auf die man redirecten könnte.
- Über Webflow kann ich nur direkt im System 301 Redirects anlegen und diese funktionieren mit den Hashbangs natürlich nicht.
- Wenn ich die alten Adressen, sowohl mit Hashbang als auch mit Escaped Fragment, aufrufe, dann komme ich auf die neue Startseite.

Problem und Fragen:

(1) Wie bekomme ich die alten hashbang URLs am einfachsten und schnellsten aus dem Google Index? Und wie bekomme ich die neuen URLs am schnellsten gelistet?

(2) Was würde passieren, wenn ich die (a) alten Hashbang URLs oder die (b) alten escaped_fragments über einen "removal request" aus Google entfernen lasse? Besteht das Risiko, dass die neue Startseite dadurch entfernt wird, da diese ja auch aufgerufen wird wenn die alten URLs eingegeben werden (bzw. die alten URLs als neue Startseite interpretiert werden)?

(3) Besteht das Risiko, dass alle (ca 130) alten URLs als dublicate content gewertet werden, da letztendlich ja alle auf die neue Startseite verweisen bzw. als neue Startseite interpretiert werden?

(4) Ist es möglich/sinnvoll, dass alle 130 alten URLs über einen "removal request" entfernt werden? Oder gibt es eine bessere Lösung?

Vielen Dank!!!

Beste Grüße,
Michael

Anzeige von: