Wird denn die neue Sitemap überhaupt von Google eingelesen? Anstatt 301 wäre auch ein Canonical möglich. Sitemap eingelesen und alle Seiten indexiert.Traffic bekommen die Seiten auch sehr gut. Canonicals sind auf allen Seiten. Startseite : <link rel="alternate" hreflang="en" hre...
Besser ist es über den Robots Meta mit content="noindex" auszustatten. Neee.Die Seite wird auf der /de/ gehostet.Wenn ich diese Seite auf noindex setze, dann hab ich garkein traffic mehr über die deutschsprachige Version. > Obwohl alles per sitemap korrekt ist will google die Seite /de we...
Hi wie behebe ich folgenden Fehler ? Laut Search console: Google hat den Unterordner /de/ indexiert (Was auch korrekt ist und in der Sitemap steht), aber indexierte auch /de (ohne / am Ende). Daraufhin erschuf ich mit Gottes Hand eine 301 Weiterleitung , was auch wunderbar funkltioniert (301 als Res...
Dieses Google update ist ein Arschl.... vom Herren. Es sind Müllseiten in top Positionen während meine Projekte 60% verloren haben. Meine Projekte werde freiwillig verlinkt, gebookmarkt, wiederbesucht und ich werde jeden Tag mit Fanpost und Anfragen bombadiert. Aber eine Blackhat Seite die voll mit ...
Hallo, ich habe 72 Domains die meine Seite kopiert haben und beim laden dieser copycat domains wird man zu einem XXX Angebot Redirected. Die Search console zeigt auch Backlinks von diesen Domains an. Auf der Seite selbst werden keine Inhalte geladen.Die User werden gleich redirected. Werden aber in ...
Hallo, was ich dir empfehlen kann, um mit dem Projekt wieder ranken zu können oder bessere Rankings einzufahren wäre Es ist also möglich.Das wollte ich wissen. Zurzeit mache ich all das was du vorgeschlagen hast. Um ehrlich zu sagen wird das Projekt sogar (wenn auch nur 2 Links) freiwillig von ande...
Hallo Ich habe ein Chat Projekt bei dem ich die Software austauschen musste und es rankte zuvor nur minimal mit wenigen Keywords (Auch wenig Backlinks sind vorhanden). Während des Austauschs war dort nix platziert.Kein Text , garnichts. Nach Wochen (8-10Wochen) harter Arbeit habe ich dann endlich es...
Hallo, ich benötige euer Schwarmwissen :D Google indexiert meine pagination domain/page/1 domain/page/2 domain/page/3 usw Verursacht dadurch duplicated content. ich möchte alles an duplicated content vom Crawling ausschließen.. In der Searchconsole habe ich den Parameter page eingetragen Siehe Bild....
Also, normalerweise ist eine Umstellung auf https:// kein Problem mehr für Google - wenn sie richtig durchgeführt wurde: - Laufen alle internen Links über https? (ggfls. mit ScreamingFrog oder ähnlichen Tools prüfen) Auto rewrite über cloudflare - Ja.Alles oki - zu 100% sicher, dass alles via 301 r...
hanneswobus hat geschrieben:@Trafficjunk
moin.
mache mal zwei sachen:
1. abruf wie durch google auf die kategorien
2. tweets, sonst. socials (ggf. pinterest) auf die kategorien.
Hi Leute, Am 26 Juni nahm ich eine Umstellung auf https die nun anscheinend meine rankings für die Hauptkeywords vorerst zerschmettert hat.Mein Projekt ist nun kaum mehr auffindbar.Außer meinedomain.com/blog und die blogposts ,sind alle wichtigen html Seiten wie meinedomain.com/de/index.html bereits...