Seite 1 von 2

Keine Indexierung nach Webshoplaunch

Verfasst: 24.05.2016, 09:00
von Adsentle
Hallo zusammen,

wir haben vor ca. 1 1/2 Wochen einen Relaunch eines Webshops vorgenommen. ( ca. 9.000 Produkte )

Sitemap.xml
Eine XML-Sitemap wurde von uns erstellt und in der Search Console eingereicht. Der Crawler von Google war auch eine lange Zeit bei uns im Shop sichtbar und man konnte zusehen, wie er die Produkte abgerufen hat.

Robot.txt
Ebenfalls haben wir die Sitemap bei uns in der Robot.txt mit aufgeführt.


Leider sieht es aktuell so aus, dass keine Seiten von unserem Shop im Index landen, außer der Startseite und 20 Unterseiten ist da nichts zu finden.


Hat jemand eventuell einen Rat für mich, warum von Googles Seite da nichts passiert?
Unsere indexierten Seiten stehen seit über einer Woche auf ganze 27 Seiten.


Ich wäre für jede Hilfe und für jeden Tipp dankbar.


Viele Grüße
0X

Verfasst:
von

Verfasst: 24.05.2016, 09:04
von Can
301 gesetzt von den alten Links?

Die URL posten ist übrigens der einzige Weg wie du hier wirklich Hilfe bekommst. Kannst sie danach ja wieder entfernen.

Verfasst: 24.05.2016, 09:11
von Adsentle
ok, also die url wäre:


https://www.supplies-discount.de

Verfasst: 24.05.2016, 09:17
von Adsentle
Wir haben auch keine alten Links. Die Produktlinks werden nach wie vor genutzt.
Deswegen würde die Idee mit der 301 wahrscheinlich wegfallen.

Verfasst: 24.05.2016, 09:25
von Can
Und 2 Wochen zuvor waren wie viele Seiten im Index? Wenn es einige tausend waren und nach dem relaunch keine mehr würde ich auf Fehler bei index, hreflang oder canonical tippen. Allerdings ist mir auf den ersten Blick auch nichts aufgefallen. Gib am besten mal ein paar mehr Infos was gemacht wurde, wie der Stand davor war etc.

Verfasst:
von

Verfasst: 24.05.2016, 09:31
von top
Um zu den Produkten zu gelangen sehe ich nur die Bild-Links mit den Marken-Logos. Z. B. nach .../search.php?m=Brother

dort steht dann das hier im Quelltext:
...
<meta name="robots" content="noindex, nofollow, noodp" />
...
Auf die Sitemap würde ich micht nicht verlassen. Sieh zu, dass der Google-Bot die Produkte auch über die Webseite selbst finden darf.

Verfasst: 24.05.2016, 09:50
von Adsentle
@top:

auch wenn die richtigen Produktseiten abgerufen werden können ? Die müssten doch dann auf jeden Fall im Index landen oder nicht?

Verfasst: 24.05.2016, 09:54
von Can
Adsentle hat geschrieben:@top:

auch wenn die richtigen Produktseiten abgerufen werden können ? Die müssten doch dann auf jeden Fall im Index landen oder nicht?
Änder mal auf noindex, follow. Deine Produkte sind wie top richtig gesehen hat nur via Search Seiten gelinkt. (z.B. https://www.supplies-discount.de/search.php?m=canon)

Sprich durch nofollow sieht es für den G-Bot so aus als wären die Produkte zwar da aber nirgendswo verlinkt -> irrelevant. -> nicht indexiert. Also nofollow raus und in einigen Tagen berichten ob es es fruchtete.

Die Search Seiten wie z.B. Canon würde ich glaube ich sogar mit einem Text versehen und ranken lassen.


E: aus Usability Sicht fehlt auf großen Suchseiten ganz klar ein Suchfeld. https://www.supplies-discount.de/search.php?m=epson Die meisten Leute sind nicht gewohnt Strg+F zu verwenden.

Ich empfehle ein JavaScript FilterSuchfeld für die Seite mit der sich dann z.B. alle Epson Modelle Filtern lassen. (ohne Seiten reload)

Verfasst: 24.05.2016, 10:11
von top
Wie soll der Bot denn die Produkte finden? Sobald er auf der Produktübersicht ist, bekommt er die Anweisung: Seite NICHT speichern und Links NICHT verfolgen.

Die Sitemap ist nur eine Hilfe für G. um auf alle deine Seiten hinzuweisen. Wenn du aber selbst auf deiner eigenen Seiten keinen einzigen Link mit Thrust auf die Produktseiten setzt, scheint G. die Inhalte als zu unwichtig zu betrachten, um sie in die Suchergebnisse mit aufzunehmen.

Erschwerend kommst hinzu, dass die Produktseiten selbst kaum neues anbieten. Der Großteil des Textes besteht jeweils aus einer langen Liste an kompatiblen Druckern, wie sie schon auf unzählig anderen Seiten zu finden sein sollten. Wenn ich ein Bot wäre, würde ich die alle als Duplicate Content werten.

Verfasst: 24.05.2016, 10:27
von hanneswobus
adsentle,
setze mal die getaetigten hinweise um u. fahre die vermarktung der kategorieseiten UND produkte parallel hoch.
lg

Verfasst: 24.05.2016, 10:30
von Adsentle
Super! Vielen Dank für die schnelle Hilfe.
Eure Vorschläge machen absolut Sinn. Sehr, sehr gut. :-)

Ich habe das jetzt geändert. Mal sehen was in den nächsten Tagen passiert.
Muss ich denn nach der Änderung den Crawler nochmal in der Search Console anschubsen?

Ich werde auf jeden Fall mal berichten, was die Änderungen gebracht haben.



Das Usability-Thema habe ich mir selbstverständlich auch auf die Todos geschrieben.

Verfasst: 24.05.2016, 11:14
von Can
Nein das ist nicht nötig, der Googlebot kommt von alleine. Nachdem der Link hier ist dauert es sicherlich nicht lange bis er dich wieder beehrt.

Verfasst: 24.05.2016, 12:26
von SEOteriker
heißt es nicht immer für sprechende urls sorgen? wundere mich spontan, dass das thema nicht angeschnitten wird.

sind dahingehend urls wie product_info.php?products_id=39732 zielführend?

9000 produkte. fressen sich die spiders da komplett durch, oder brechen sie irgendwann ab?
ist nicht irgendwann schicht im schacht, resp. das crawl budget aufgebraucht?

entschuldigt, sind nur bescheidene gedanken eines absolute beginners.
aber man will ja lernen, deswegen sind wir doch alle hier, oder?

servus

Verfasst: 24.05.2016, 12:45
von MikeGK
Sprechende URLs sind ja vorhanden.
Ein Canonical verweist von z.B. /product_info.php?products_id=8100 auf /artikel/HP-Tintenpatrone-Nr.-11-cyan-C4836AE/B/.

Dort gibts allerdings leider ein <meta name="robots" content="noindex, nofollow, noodp" />

Verfasst: 24.05.2016, 12:48
von Adsentle
ja das stimmt. Super vielen Dank für den Tipp. Sehr guter Hinweis.