Warum registrieren? Nur als registriertes Mitglied vom ABAKUS Forum hast Du vollen Zugriff auf alle Funktionen unserer Website.

WTF is kriegn.de

Alles Rund um Bing, Yahoo! Suche und andere Suchmaschinen.
supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 06.02.2019, 12:24

Wenn ich so dann und wann in der alten Google Webmaster Console nach Fehlern beim Crawlen nachschaue, fallen mir immer abgeschnittene URLs auf, die der dumme Google Bot aufsammelt. Diese abgeschnittenen URLs kommen aber nicht von meinen Seiten, sondern von https://kriegn.de, dem Vernehmen nach eine Suchmaschine. Nicht, dass ich was dagegen hätte, dass ich dort in den Suchergebnissen auftauche, aber Google sollte dann schon so intelligent sein, dass man nicht fremde Suchmaschinen durchforstet und deren Content in den eigenen Index aufnimmt, wobei das Dumme daran ist, dass Google die abgeschnittenen (truncate) URLs aus den Snippets (Breadcrump) herauszieht, also noch nicht mal die richtig verlinkten URLs aus der Überschrift.

Nachdem der Googlebot keine aktive Suche durchführen kann, müssen die Suchergebnisse irgendwo bei diesem Sichmaschinenbetreiber indexierbar vorliegen, sodass der Übeltäter dann eigentlich nicht Google ist, sondern diese Suchmaschine, die sich noch nicht mal als solche namentlich in den Logfiles finden lässt. Ich habe zwar eine automatische und intelligente Weiterleitung auf die jeweils richtige URL, wenn eine URL z.B. falsch geschrieben wurde, aber dazu braucht es die ID am Ende der URL, aber die wird ja abgeschnitten. Somit landen alle URLs auf einer Fehlerseite.

Rem
PostRank 10
PostRank 10
Beiträge: 3809
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 09.02.2019, 00:51

müssen die Suchergebnisse irgendwo bei diesem Sichmaschinenbetreiber indexierbar vorliegen
Ja, und zwar [auch], weil jedes Suchresultat eine eigene URL erzeugt: https://kriegn.de/?q=test

Ein Problem ist, dass Chrome [und weitere Google-Tools] solche URLs an Google übermitteln und die URLs gespidert werden. Die Schuld ist insofern auch bei der Absicht von Google zu suchen, das Deep Web zu spidern und auf Datenschutz zu scheissen.

Ich habe übrigens zehntausende solcher Seiten von meinen eigenen Projekten in den Serps und in Search Console verfügbar. Das Verhältnis von Scheisse zu geschriebenem Content ist 7:1. Im Traffik macht das 2:98 aus.

Das heisst, dass hier durchaus Intelligenz vorhanden ist, die vermutlich verhindert, dass kriegn irgendwie profitiert.

Aber klar: mich stört auch, dass mein Hauptprojekt mit 275k einkommenden Links in Search Console bestückt ist, von denen ich selbst 173K von einem Zweitprojekt aus beisteuere. Diese Informationen sind völlig unbrauchbar.
Kostengünstige Fremdwährungstransfers und Umtausch (EUR, USD, GBP, CHF etc), eigene Konti in den USA, UK, AU und in UK. Ich empfehle Transferwise . Neu mit nahezu kostenloser Multiwährungs-Debit-Kreditkarte.

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 09.02.2019, 09:52

Die Links ansich wären nicht das Problem. Das Problem sind die abgeschnittenen URLs, wobei sich der Googlebot nicht die a href URLs aus den Titel Links herauszieht, sondern die URLs in den Breadcrumbs innerhalb der Snippets in den Suchergebnissen und die sind abgeschnitten.

Wobei es da noch ein paar Pappenheimer Pseudo Suchmaschinen gibt bei denen ich genauso wenig verstehe, warum der Googlebot sich den Content von diesen Seiten holt?!

https://www.jraces.com/
https://www.cncsac.com/

staticweb
PostRank 9
PostRank 9
Beiträge: 1166
Registriert: 04.05.2016, 14:34

Beitrag von staticweb » 09.02.2019, 09:54

Das kann ich nicht ganz nachvollziehen.

Bei einer site Suche ist das einzige Ergebnis die Startseite.

site:kriegn.de

Und die Suchergebnisse stehen auch auf noindex.

<meta name="robots" content="noindex">

Antworten