Seite 1 von 1

Frage zum CANONICAL TAG in Verbindung mit HREFLANG

Verfasst: 24.09.2018, 16:58
von Gedankenmacher
Hallo,
ich bin neu hier im Forum.

Ich heiße Markus und beschäftige mich privat immer mal wieder mit Webdesign.
Ich habe schon ein paar Webseiten für mich selbst programmiert, von denen aber nur noch ein, zwei online sind.

Ich möchte von Projekt zu Projekt professioneller werden und schaue mir deshalb YouTube Videos über SEO an und lese auch im Internet etwas nach, wenn ich es nicht auf Anhieb verstehe.

Derzeit beschäftige ich mich mit dem Canonical Tag.
Ich denke ich habe das Prinzip gut verstanden, aber dennoch schaffe ich es nicht, diesen so in meine Homepage einzubauen, dass er tadellos funktioniert.

Ich hoffe, es erbarmt sich jemand und kann mir einen Hinweis geben, was ich falsch mache.

Ich habe gelesen, das man auf die Startseite einen Canonical Tag setzen soll, der auf sich selbst verweist.
Aber, wenn ich das mache, dann sagt mir ein Analyse Tool, dass meine Website nicht indexierbar ist.

Zudem verstehe ich nicht ganz, was es genau mit den vier Schreibweisen der Startseite auf sich hat.

Von diesen vier Schreibweisen soll man sich ja eine aussuchen und diese dann im Carnonical Tag benennen. Richtig?

Mit vier Schreibweisen meine ich:
http/www.abc
http/abc
https/www.abc
https/abc

HREFLANG Tags habe ich auf meiner Startseite auch gesetzt:

="en"
="x-default"
="de"

P.S. Ich darf als Neuling keine Webadressen ausschreiben

Verfasst:
von

Verfasst: 24.09.2018, 17:22
von staticweb
> Ich habe gelesen, das man auf die Startseite einen Canonical Tag setzen soll, der auf sich selbst verweist.

Nicht nur auf der Startseite.

> Aber, wenn ich das mache, dann sagt mir ein Analyse Tool, dass meine Website nicht indexierbar ist.

Dann vergleiche mal beide URLs, obwohl ich vermute, dass es hier noch ein robots Problem gibt.

> Von diesen vier Schreibweisen soll man sich ja eine aussuchen und diese dann im Carnonical Tag benennen. Richtig?

4 Schreibweisen, aber es darf nur ein "Original" geben!

> HREFLANG Tags habe ich auf meiner Startseite auch gesetzt:

Das ist ein anderes Thema.

Verfasst: 24.09.2018, 19:03
von Gedankenmacher
Hallo staticweb,
ich danke dir für deine Antwort!

Gut, man soll auf jeder Seite einen Canonical Tag setzen. Kann ich auch machen, wenn ich das "Problem" bei mir erkannt habe.

Ich habe die URL´s verglichen. Es ist bei mir so, dass alle vier Schreibweisen jeweils die Homepage anzeigen. Ist das gut? Wenn nein, wie kann ich das ändern? Nur über die Google Search Console?

Meine Robots-Datei sieht so aus:
User-agent: grub-client
Disallow: /

User-agent: grub
Disallow: /

User-agent: looksmart
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: larbin
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: NetMechanic
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: ia_archiver
Disallow: /

User-agent: ia_archiver/1.6
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: MIIxpc
Disallow: /

User-agent: Telesoft
Disallow: /

User-agent: Website Quester
Disallow: /

User-agent: moget/2.1
Disallow: /

User-agent: WebZip/4.0
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebSauger
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: NetAnts
Disallow: /

User-agent: Mister PiX
Disallow: /

User-agent: WebAuto
Disallow: /

User-agent: TheNomad
Disallow: /

User-agent: WWW-Collector-E
Disallow: /

User-agent: RMA
Disallow: /

User-agent: libWeb/clsHTTP
Disallow: /

User-agent: asterias
Disallow: /

User-agent: httplib
Disallow: /

User-agent: turingos
Disallow: /

User-agent: spanner
Disallow: /

User-agent: InfoNaviRobot
Disallow: /

User-agent: Harvest/1.5
Disallow: /

User-agent: Bullseye/1.0
Disallow: /

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /

User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /

User-agent: CherryPickerSE/1.0
Disallow: /

User-agent: CherryPickerElite/1.0
Disallow: /

User-agent: WebBandit/3.50
Disallow: /

User-agent: NICErsPRO
Disallow: /

User-agent: Microsoft URL Control - 5.01.4511
Disallow: /

User-agent: DittoSpyder
Disallow: /

User-agent: Foobot
Disallow: /

User-agent: WebmasterWorldForumBot
Disallow: /

User-agent: SpankBot
Disallow: /

User-agent: BotALot
Disallow: /

User-agent: lwp-trivial/1.34
Disallow: /

User-agent: lwp-trivial
Disallow: /

User-agent: BunnySlippers
Disallow: /

User-agent: Microsoft URL Control - 6.00.8169
Disallow: /

User-agent: URLy Warning
Disallow: /

User-agent: Wget/1.6
Disallow: /

User-agent: Wget/1.5.3
Disallow: /

User-agent: Wget
Disallow: /

User-agent: LinkWalker
Disallow: /

User-agent: cosmos
Disallow: /

User-agent: moget
Disallow: /

User-agent: hloader
Disallow: /

User-agent: humanlinks
Disallow: /

User-agent: LinkextractorPro
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Mata Hari
Disallow: /

User-agent: LexiBot
Disallow: /

User-agent: Web Image Collector
Disallow: /

User-agent: The Intraformant
Disallow: /

User-agent: True_Robot/1.0
Disallow: /

User-agent: True_Robot
Disallow: /

User-agent: BlowFish/1.0
Disallow: /

User-agent: JennyBot
Disallow: /

User-agent: MIIxpc/4.2
Disallow: /

User-agent: BuiltBotTough
Disallow: /

User-agent: ProPowerBot/2.14
Disallow: /

User-agent: BackDoorBot/1.0
Disallow: /

User-agent: toCrawl/UrlDispatcher
Disallow: /

User-agent: WebEnhancer
Disallow: /

User-agent: suzuran
Disallow: /

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /

User-agent: VCI
Disallow: /

User-agent: Szukacz/1.4
Disallow: /

User-agent: QueryN Metasearch
Disallow: /

User-agent: Openfind data gathere
Disallow: /

User-agent: Openfind
Disallow: /

User-agent: Xenu's Link Sleuth 1.1c
Disallow: /

User-agent: Xenu's
Disallow: /

User-agent: Zeus
Disallow: /

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /

User-agent: RepoMonkey
Disallow: /

User-agent: Microsoft URL Control
Disallow: /

User-agent: Openbot
Disallow: /

User-agent: URL Control
Disallow: /

User-agent: Zeus Link Scout
Disallow: /

User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /

User-agent: Webster Pro
Disallow: /

User-agent: EroCrawler
Disallow: /

User-agent: LinkScan/8.1a Unix
Disallow: /

User-agent: Keyword Density/0.9
Disallow: /

User-agent: Kenjin Spider
Disallow: /

User-agent: Iron33/1.0.2
Disallow: /

User-agent: Bookmark search tool
Disallow: /

User-agent: GetRight/4.2
Disallow: /

User-agent: FairAd Client
Disallow: /

User-agent: Gaisbot
Disallow: /

User-agent: Aqua_Products
Disallow: /

User-agent: Radiation Retriever 1.1
Disallow: /

User-agent: Flaming AttackBot
Disallow: /

User-agent: Oracle Ultra Search
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: PerMan
Disallow: /

User-agent: searchpreview
Disallow: /

User-agent: ScoutJet
Disallow: /

User-agent: *
Disallow: /impressum/index.php
Disallow: /datenschutz.php
Disallow: /kontakt.php
Disallow: /imprint/index.php
Disallow: /dataprotection.php
Disallow: /contact.php


Ich habe den HREFLANG Tag erwähnt, da ich denke, dass dieser den Canonical Tag vielleicht beeinflusst.

Verfasst: 25.09.2018, 07:40
von staticweb
> Ich habe die URL´s verglichen. Es ist bei mir so, dass alle vier Schreibweisen jeweils die Homepage anzeigen. Ist das gut? Wenn nein, wie kann ich das ändern? Nur über die Google Search Console?

Jede Seite hat einen (!) eigenen canonical tag. Du musst dich für eine Schreibweise entscheiden.

Du kannst über die neue GSC schauen wo das Indexierungsproblem liegt.

Verfasst: 25.09.2018, 08:22
von Gedankenmacher
Gut, dann werde ich mich mal bei der GSC anmelden.

Zu den vier Schreibweisen. Sind manche besser und manche schlechter? Kannst du eine empfehlen? Ich habe ein SSL Zertifikat, bin also unter https erreichbar.

Verfasst: 25.09.2018, 10:03
von staticweb
> Zu den vier Schreibweisen. Sind manche besser und manche schlechter? Kannst du eine empfehlen? Ich habe ein SSL Zertifikat, bin also unter https erreichbar.

HTTPS ist zu bevorzugen und wird irgendwann auch obligatorisch werden.

Ob mit oder ohne www kann man nicht allgemein beantworten. Hat beides seine Vor- und Nachteile.

Verfasst: 25.09.2018, 10:49
von Gedankenmacher
Okay, ich danke dir!

Verfasst: 25.09.2018, 16:41
von arnego2
Gedankenmacher hat geschrieben:Gut, dann werde ich mich mal bei der GSC anmelden.

Zu den vier Schreibweisen. Sind manche besser und manche schlechter? Kannst du eine empfehlen? Ich habe ein SSL Zertifikat, bin also unter https erreichbar.
Hab Geduld, nach der Anmeldung wird es so um die 2 bis 6 Wochen dauern bis Daten sichtbar werden.

Dich für die dir am besten gefallende Version der Seite kannst du allerdings sofort nach Anmeldung machen.

Verfasst: 27.09.2018, 01:50
von Gedankenmacher
Hey, ich komme noch nicht richtig weiter.
Ich habe jetzt in der alten GSC angeklickt, dass nur mit WWW gecrawlt werden soll.

Was ich nicht verstehe ist, dass wenn ich meine Startseite über Online-Tools checken lasse, dann sieht es so aus, als würden zwei Seiten untersucht werden.

1) https:// www.meineseite.com/
2) https:// www.meineseite.com/index.php

Die zweite Seite verstehe ich ja, aber die erste Seite gibt es doch gar nicht, oder??

Meine .htaccess Datei sieht aktuell so aus:

RewriteEngine On
RewriteCond %{SERVER_PORT} !=443
RewriteRule ^(.*)$ https://www.meineseite.com/$1 [R=301,L]


Und wenn ich jetzt den Canonical Tag in der index.php Datei in den Header setze, (sieht so aus):

<link rel="canonical" href="https://www.meineseite.com/index.php" />

dann ist diese Seite indexierbar:

https://www.meineseite.com/index.php


und diese Seite wird nicht indexiert:

https://www.meineseite.com/


Ist das jetzt so richtig?


Noch zur Info (vielleicht wichtig)?!
Zusätzlich habe ich noch auf der index.php Seite folgende hreflang Tags:
<link rel="alternate" href="https://www.meineseite.com/index-en.php" hreflang="en" />
<link rel="alternate" href="https://www.meineseite.com/index-en.php" hreflang="x-default" />
<link rel="alternate" href="https://www.meineseite.com/index.php" hreflang="de" />

Verfasst: 27.09.2018, 07:56
von staticweb
Und warum jetzt mit index.php und nicht ohne?

> Ich habe jetzt in der alten GSC angeklickt, dass nur mit WWW gecrawlt werden soll.

Du wählst dort nur deine bevorzugte Version.

> Was ich nicht verstehe ist, dass wenn ich meine Startseite über Online-Tools checken lasse, dann sieht es so aus, als würden zwei Seiten untersucht werden.

Genau so wie du es verlinkt hast bzw. von außen verlinkt ist.

Verfasst: 27.09.2018, 11:35
von Gedankenmacher
Was meinst du mit: "Und warum jetzt mit index.php und nicht ohne?" ?

Wenn ich eine Sitemap erstelle, dann zeigt diese an:

<url>
<loc>https://www.meineseite.com/</loc>
<lastmod>2018-09-27T09:41:50+00:00</lastmod>
<priority>1.00</priority>
</url>
<url>
<loc>https://www.meineseite.com/index.php</loc>
<lastmod>2018-09-27T09:41:50+00:00</lastmod>
<priority>0.80</priority>
</url>

Ist das so richtig??

Verfasst: 27.09.2018, 12:29
von staticweb
> Was meinst du mit: "Und warum jetzt mit index.php und nicht ohne?" ?

Wenn ich jetzt diese Frage lese und deine Sitemap sehe, glaube ich du solltest dir erst einmal die nötigen Grundlagen aneignen.

Lese dir das und zusätzlich die unteren Punkte erst einmal durch:

https://support.google.com/webmasters/a ... 9066?hl=de

Wenn du dann noch Fragen hast, gerne.

Verfasst: 27.09.2018, 16:19
von Gedankenmacher
Danke für den Link, diesen habe ich schon einmal studiert.

Ich habe es jetzt geschafft, dass wenn ich folgende Adressen in die Browserleiste eingebe:

meineseite.com
meineseite.com/index.php
www.meineseite.com
www.meineseite.com/index.php
https://meineseite.com
https://meineseite.com/index.php
https://www.meineseite.com
https://www.meineseite.com/index.php
https://meineseite.com
https://www.meineseite.com


Dann wird mir immer:

https://www.meineseite.com

angezeigt/weitergeleitet. Was gut ist, denn das will ich ja so.

Aber, wenn ich folgende Adressen eingebe:
https://meineseite.com/index.php
https://www.meineseite.com/index.php
dann wird mir
https://www.meineseite.com/index.php angezeigt.
So, als wären da zwei Seiten. Wie kann das sein?


Du sagst: "Wenn ich deine Sitemap so sehe ..." Als wäre darin ein Fehler. An anderer Stelle wurde geschrieben, dass es nicht unüblich ist, dass bei der Sitemap Erstellung Fehler passieren, bzw. Seiten darin auftauchen, die gar nicht existieren. So ja auch hier.

Also wird alles wohl so richtig sein.

Nur der Canonical Tag ist mir noch ein Rätsel. Ich habe auf meinen anderen Seiten auch den Canonical Tag gesetzt und überhaupt keine Probleme damit. Nur in der Index-Datei macht er Zicken... Warum??

Verfasst: 27.09.2018, 20:10
von staticweb
> Nur der Canonical Tag ist mir noch ein Rätsel.

Sorry, aber RTFM. Den Link dazu hast du bereits und im Internet hast du unzählige Anleitungen zu diesem Thema.

> Nur in der Index-Datei macht er Zicken... Warum??

Ich kenne zwar dein CMS nicht (falls überhaupt vorhanden), aber auch die .../index.php muss weitergeleitet werden, da die nur intern eine Rolle spielt.

Könnte daran liegen:

RewriteCond %{SERVER_PORT} !=443

Es werden nur Seiten mit dem http Protokoll weitergeleitet, aber nicht die https Versionen.

Verfasst: 27.09.2018, 20:34
von Gedankenmacher
Danke!