Seite 1 von 1

periodischen Content Bot-freudlich kennzeichnen - Wie?

Verfasst: 16.05.2019, 22:18
von Padina
Vorgeschichte
Ich möchte auch einer Webseite am Todestag bzw. zum Geburtstag alter Dichter ein Gedicht von diesen inklusive einer Kurzinterpretation einblenden. Dafür programmiere ich derzeit Für TYPO3 eine entsprechende Timer-Extension, die die meisten periodischen Termin-Konstellation abbilden kann?

Meine Fragen:
Wie kennzeichne ich solche Seiten für Suchmaschinen, so dass diese die indexieren können? Bei Google habe ich dazu nichts gefunden und der Support ist nicht wirklich hilfreich.
Für ganze Seite würde ich derzeit einen Meta-Tag definieren, um deren Periodizität anzuzeigen.

An einigen Stellen auf der Webseite möchte ich neben statischen Inhalten auch periodisch-temporäre Inhalte anbieten, zum Beispiel nur an Vollmondtagen, während der blauen Stunde oder in der Karnevalszeit. Wie grenze ich Suchmaschinen-freundlich temporäre Inhalte gegen statische Inhalte ab, die die Suchmaschine gern indexieren darf.
Aktuell würde ich die temporären Inhalte mit dem Nicht-HTML-Tag

Code: Alles auswählen

<periodic name= "&#91;Timer-String&#93;"> ... </ periodic> 
einklammern.

Bei Stackoverflow erhielt ich die Anregung,

Code: Alles auswählen

     <meta name="revisit-after" content="30 days">
zu nutzen. Wie sind die Erfahrungen damit aus SEO-Sicht?

Problematisch wird die Idee zum Beispiel bei Content zur blauen Stunde, da der Content ja nur morgens und abend für eine Stunde angezeigt wird.

Ich möchte nicht von Suchmaschinen dafür abgestraft werden, dass ich Surfern ein bookmarkfähgie Webseite mit wechselnden Inhalten anbiete, die sich der User auch bookmarken kann. Ich fände es schon schön, wenn es dafür einen Standard gäbe, der auch etwas komplexere Fälle abfrühstückt?

Verfasst:
von

Re: periodischen Content Bot-freudlich kennzeichnen - Wie?

Verfasst: 17.05.2019, 03:03
von nerd
Padina hat geschrieben: Meine Fragen:
Wie kennzeichne ich solche Seiten für Suchmaschinen, so dass diese die indexieren können?
Ja ganz normal - gar nicht. Wenn die seite intern intern gut verlinkt ist wird google sie schon finden. Wenn es nur um einen textblock innerhalb einer seite geht dann eben mit <aside>:

https://developer.mozilla.org/en-US/doc ... ment/aside
The HTML <aside> element represents a portion of a document whose content is only indirectly related to the document's main content. Asides are frequently presented as sidebars or call-out boxes.
Padina hat geschrieben: Aktuell würde ich die temporären Inhalte mit dem Nicht-HTML-Tag

Code: Alles auswählen

<periodic name= "&#91;Timer-String&#93;"> ... </ periodic> 
einklammern.
Was genau erwartest du von google, wenn du einen tag erfindest den niemand ausser dir kennt...?
Padina hat geschrieben: Bei Stackoverflow erhielt ich die Anregung,

Code: Alles auswählen

     <meta name="revisit-after" content="30 days">
zu nutzen. Wie sind die Erfahrungen damit aus SEO-Sicht?
Diese (exotischen) meta anweisungen werden imho von google ignoriert; eigentlich benutze ich selbst nur noch <meta description>, wobei das google auch nur als gutgemeinten ratschlag betrachtet und auch ignorieren kann.
Je nachdem wie aktiv deine seite ist kommt der bot auch oefters oder seltener, ganz egal was revisit sagt.

Verfasst: 17.05.2019, 08:30
von staticweb
> Ich möchte nicht von Suchmaschinen dafür abgestraft werden, dass ich Surfern ein bookmarkfähgie Webseite mit wechselnden Inhalten anbiete, die sich der User auch bookmarken kann. Ich fände es schon schön, wenn es dafür einen Standard gäbe, der auch etwas komplexere Fälle abfrühstückt?

Dann arbeite mit GET Parametern und gebe einen canonical auf die Seite ohne Parameter. Unterschiedliche Parameter --> unterschiedliche Seite

Verfasst: 17.05.2019, 10:20
von supervisior
staticweb hat geschrieben: Dann arbeite mit GET Parametern und gebe einen canonical auf die Seite ohne Parameter. Unterschiedliche Parameter --> unterschiedliche Seite
Sorry, aber davon kann man eigentlich nur abraten und das besonders im konkreten Fall. Jeder Versuch Google oder dessen Bot ein bestimmtes Verhalten aufzudrängen, kann nur schiefgehen. Ich hab mir besonders was die GET Parameter anbetrifft nicht nur einmal und das nachhaltig die Finger verbrannt. Damit tust Du niemandem einen Gefallen solche Ratschläge zu geben und das meine ich ganz pragmatisch. Ich denke, dass mir viele Recht geben, wenn ich sage, dass das Internet zwar viele Standards hat, aber Google sich seine eigenen Standards macht und das Letzte was Google macht, ist sich beeinflussen lassen. Dazu gehört auch, dass Google selbst entscheidet, was richtig und was falsch ist.

@Padina

Der Kollege @nerd hats eigentlich schon auf den Punkt gebracht. Es wäre zwar schön, wenn man das von Dir gewünschte machen könnte, aber auch wenn man die Eigenheiten von Google & Co. einmal außen vor lässt, mangelts es nicht nur den funktionellen Möglichkeiten, sondern ist schon deswegen nicht möglich, weil sich dafür die Datenbestände aller Suchmaschinen in nahezu Echtzeit ändern müssten. Dass das nicht geht, sollte einleuchten?!

Das was Du da anstrebst, ist lobenswert, wenn Du anstrebst die Nutzererfahrung zu steigern. Das hat nur einen entscheidenden Haken. Google giert förmlich nach nach neuem Content, hat allerdings ein Problem mit sich veränderten Inhalten. So paradox es klingen mag, aber besonders Google funktioniert perfekt, wenn man eine einmal erstellte Seite nie wieder verändert und wenn, dann nur minimal. Nichts ist schlimmer, wie wenn sich der Inhalt einer Einzelseite sich "periodisch" zu einem größeren Anteil verändert. Der Googlebot ruft eine Seite zwar mehr oder weniger häufig wieder auf, aber wenn sich der Inhalt der aufgerufenen Seite verhältnismäßig oft verändert, scheint Google, womöglich aus Gründen der exorbitanten Datenmengen, ein Problem damit zu haben den Inhalt neu identifizieren zu können. Hinzukommt die durch die Datenmengen verursachte Trägheit die Datenmengen immer wieder zu klassifizieren.

Letztendlich und aus der resultierenden Konsequenz bedienst Du mit Deinem Vorhaben zwar Deine Besucher, aber Google dankt Dir Dein Bemühen nur insofern, wenn sich durch Dein Vorhaben die Verweilzeiten verbessern. In Sachen Ranking dürften sich Deine Bemühungen aus den o.g. Gründen aber eher schädlich auswirken. Man könnte es auch so formulieren. Mit Deinem Vorhaben hast Du ein Problem mehr, das Du ohne nicht hättest.

Verfasst: 17.05.2019, 11:58
von top
Mal ganz blöd gefragt: wie wird eigentlich Werbung sinnvoll für den Google-Bot gekennzeichnet? Die kann sich theoretisch ja auch bei jedem Seitenaufruf ändern - und Google soll diese ja nicht als Änderung der Seite selbst werten.

Verfasst:
von

Verfasst: 17.05.2019, 12:26
von supervisior
@top

Wie kommst Du darauf, dass man für den Bot etwas kennzeichnen könnte?

Verfasst: 17.05.2019, 12:42
von staticweb
> Damit tust Du niemandem einen Gefallen solche Ratschläge zu geben und das meine ich ganz pragmatisch.

Ich gehe bei meinen geschriebenen Posts immer von einer professionellen Ausführung und folgendem Monitoring aus. Bei Problemen sollte man dann natürlich gegensteuern. Z.B. mit noindex, wie Zalando es teilweise macht.

Siehe auch dieser Thread:

https://www.abakus-internet-marketing.d ... 37940.html

Wenn du mit dieser Lösung bei dir Probleme bekommen hast, dann nutze halt eine andere. Das bedeutet aber noch lange nicht, dass dies auch für alle anderen Webseiten gilt.

Google kann jeden Tag seine Strategie ändern (siehe auch aktuell die automatisierte Kanonisierung). Wer nach Evergreen-Tipps oder allgemeinen Lösungen sucht ist in dieser Branche falsch!!!

Im übrigen gebe ich hier keine Ratschläge, sondern nur Denkanstöße. Das ist mein rein privater Account! Über die Umsetzung muss sich schon jeder selbst Gedanken machen. Und inklusive Monitoring ist auch jeder selbst dafür verantwortlich. Das bedeutet auch, dass man sich professionelle Hilfe sucht, wenn man an seine Grenzen stößt. Und zwar nicht in den Antworten eines Forums, sondern von einem qualifizierten Dienstleister. Ob er sich dann eine Agentur, einen Freelancer oder jemand im Nebengewerbe sucht, ist auch allein seine Sache.

Verfasst: 17.05.2019, 13:40
von supervisior
Warum fühlst Du Dich jetzt persönlich angegriffen? Ich hab doch extra auf pragmatisch verwiesen.

Ja natürlich hab ich eine andere Lösung, veröffentliche diese meine Lösung aber nicht, weil ich nicht dafür gradstehen kann, dass diese allgemeingültig ist, zumal diese Lösung für die breite Masse ohnehin nicht durchfühbar ist und das unabhängog ob professionell oder nicht. Du musst schon bitte alles lesen, wenn einer was schreibt. Dann kommt es nicht zu diesen völlig unnötigen Reaktionen.

Auf Deine Antwort zum eigentlichen Thema muss ich aber trotzdem noch was sagen, weil Du offenbar auch das Eingangsthema nicht vollständig gelesen haben musst. Was willste denn mit noindex, wenn es hier darum geht, wie man Content Bereiche innerhalb einer einzelnen Seite Google gegenüber anders aus-/kennzeichnen kann? Es wäre mir neu, dass man das mit noindex machen könnte oder weißt Du ausnahmsweise mal mehr wie ich? ;)

Verfasst: 17.05.2019, 14:11
von staticweb
> Warum fühlst Du Dich jetzt persönlich angegriffen? Ich hab doch extra auf pragmatisch verwiesen.

Ich fand, dass es ein guter Zeitpunkt war, mal ein paar Worte über das Thema falsche oder richtige "Ratschläge" im Bereich SEO zu verlieren. Insbesondere wenn diese kostenlos in einem Forum gegeben werden.

Ergänzen würde ich an dieser Stelle noch, dass es unmöglich ist eine realistische Bewertung abzugeben, wenn wie hier meistens keine 10% von der eigentlichen Problematik kommuniziert werden. Also nur die Spitze vom Eisberg.

Vielleicht sensibilisiert das den einen oder anderen für das Thema. Schaden kann es jeden falls nicht.

> Ja natürlich hab ich eine andere Lösung, veröffentliche diese meine Lösung aber nicht, weil ich nicht dafür gradstehen kann, dass diese allgemeingültig ist, zumal diese Lösung für die breite Masse ohnehin nicht durchfühbar ist und das unabhängog ob professionell oder nicht.

Genau das habe ich damit versucht zu erläutern.

> Was willste denn mit noindex, wenn es hier darum geht, wie man Content Bereiche innerhalb einer einzelnen Seite Google gegenüber anders aus-/kennzeichnen kann?

Es geht nur darum, dass sich einzelne Bereiche der Webseite dynamisch ändern. Und noindex gilt dann natürlich für alle Seiten mit einer deshalb parametrisierten URL, falls diese ungewollt im Index landet. Und ja, es gibt ein Restrisiko dass vielleicht auch die unparametrisierte, kanonisierte URL mit verschwindet. So ist das halt bei Google. Das habe ich mir nicht ausgedacht.

Verfasst: 17.05.2019, 16:30
von top
supervisior hat geschrieben:@top

Wie kommst Du darauf, dass man für den Bot etwas kennzeichnen könnte?
Da ich hier hauptsächlich kleine Firmenwebseiten umsetze, habe ich mich noch nicht mit dem korrektem Einbinden von Bannerwerbung auseinandersetzen müssen. Daher ja meine Frage wie Google das gerne hätte.

Wie wäre es denn mit einem iFrame?

Oder einem Javascript, welches auf dynamisch generierte Daten zugreift (die vielleicht sogar von der Indexierung ausgeschlossen sind)?

Verfasst: 17.05.2019, 16:40
von staticweb
> Wie wäre es denn mit einem iFrame? Oder einem Javascript, welches auf dynamisch generierte Daten zugreift (die vielleicht sogar von der Indexierung ausgeschlossen sind)?

Vor Google ist mittlerweile nichts mehr sicher.

Da hilft eigentlich nur Google aussperren oder spätes Nachladen.

Beides hat seine Risiken.

Verfasst: 17.05.2019, 16:45
von supervisior
top@

Für gewöhnlich nutzt man dafür irgendein Werbenetzwerk wie z.B. Adsense oder Affiliate. In beiden Fällen erfolgt die Einbindung von Werbung dann über ein Script, aber nicht generell damit. Das geht auch statisch über pures HTML, aber eben nicht bei den besagten Werbenetzwerken. Egal wie, kannst Du nix gesondert auszeichnen damit Google das nicht berücksichtigt. Ausgenommen davon wäre eigentlich nur ein nofollow bei statischen Objekten.

Ein iframe ist da auch nicht wirklich sicher, was auch nur bei statischen Objekten geht und eben nicht bei Scripten von Adsense & Co. Die haben ihre eigenen iframes. Da selbst mit eigenen Mitteln dazwischenfunken, geht eher nach hinten los.

Unter Vorbehalt und auf eigenes Risiko kannst Du das machen, was ich gemacht habe, aber noch nicht sagen kann in wie weit sich das ggf. schädlich auswirkt, weil ich das erst seit ein paar Wochen teste.

CAVE!!!

Jeder Nutzer, der bei mir bei einem ganz bestimmten Projekt eine PHP SESSION öffnet, wovon Google & Co. ausgeschlossen ist, bekommt einen bestimmten Cookie. Ist der Cookie vorhanden, bekommt dieser Werbung. Ist dieser nicht vorhanden, werden nicht nur keine Anzeigen angezeigt, sondern auch verhindert, dass die Scripte zum Anzeigen von Werbung gar nicht erst im Code erscheinen. Das ist jetzt nur umrissen die Kurzform davon wie ich das gemacht habe. Im Detail, aber noch etwas umfangreicher. Das ist quasi die Harakiri Methode, ohne bis jetzt zu wissen, ob mir das Google übel nimmt, aber nachdem es hierbei um nichts geht, kann ich damit auch nichts zu verlieren.

Und nochmal, wenn Du nicht weißt, was man im Detail machen muss, ist das nicht wirklich zur Nachahmung geeignet, aber es funktioniert. In diesem Fall sieht Google nur das, was ich will.