Seite 1 von 3

Seo Check Tool

Verfasst: 26.04.2013, 18:17
von Kristian
Hallo,

zum Thema SEO-Check / SEO-Tool gab es ja in den letzten Tagen einiges zu lesen.
Da meine aktuelle Programmiertätigkeit keine Konkurrenz zu Webbys Angebot darstellt, will ich es euch dieses Tool kurz vorstellen und um Mithilfe bitten.

Machen wirs kurz, hier die URL:
Seo Check

Es geht hierbei vorrangig um die handwerkliche Leistung, früher bekannt als onPage-Optimierung.
Meine Tests zeigen mir, dass dies nach wie vor ein Kriterium ist. Egal zu welchem Keyword sind Seiten, die in den Serps vorne sind, auch im Test gut, greife ich eine Seite von den hinteren Rängen der Serps, sehe ich ein dementsprechend schlechtes Testergebnis.

Für einige hier wird wichtig sein, dass das Tool die robots.txt liest und beachtet.

User-agent: SeoCheck

(User-agent: * greift natürlich auch)

Sodele, dann testet bitte mal und lasst mich wissen, was ich besser machen kann, was eurer Meinung nach fehlt usw.

Ein paar meiner Gedanken meinerseits:
Ich frage mich, ob meine Punktevergabe immer ganz richtig ist, ev. werte ich Dinge falsch?
Lasse ich den Namen des Bots so oder konkretisiere ich den?
(Thema hatten wir mit den Thumbshots-Bots schon)
Will ich Alexa (AWIS) abfragen?
(Kostet zwar nur Peanuts aber nutzt es was?)
Will ich Google mit site:www.<domain>.tld belästigen?
(wäre enorm hilfreich, begrenzt mich aber auf 1000 Abfragen pro Tag und ist nicht wirklich regel-konform)
Ich will auf 404-Header bei nicht existenten Seiten prüfen, nervt das zu sehr, wenn man via error.log von der Nutzung des Tools erfährt?
(es wird wohl auch mal einer die Konkurrenz prüfen)
[...]

Das war jetzt nur ein Auszug, die ToDo-Liste liegt hier, ist aber offen, je nachdem was ihr beisteuert wird diese erweitert oder die Prioritäten werden geändert.


Gruß
Kristian

PS: Sorry, ich verstoße gegen die Richtlinien dieses Forums, man möge mir vergeben, aber die URL im Titel hätte die Zielsetzung des Posts entwertet.

Verfasst:
von

Verfasst: 01.05.2013, 20:44
von YTCP
es fehlt Hinweis: was sagen die roten, grünen Balken aus?

Verfasst: 01.05.2013, 21:01
von hanneswobus
kristian,

huebsche arbeit. ich verstehe nur nicht, warum der balken mal 100, mal 300 punkte hat. hierzu solltest du bei deinem angebot noch eine erklaerung abfassen.

gruß

Verfasst: 02.05.2013, 10:24
von Kristian
Hallo,
hanneswobus hat geschrieben: huebsche arbeit. ich verstehe nur nicht, warum der balken mal 100, mal 300 punkte hat. hierzu solltest du bei deinem angebot noch eine erklaerung abfassen.
vielen Dank für die Blumen.
Ich glaube ich habe für Verwirrung gesorgt, weil ich die mögliche Punktzahl für Backlinks und Links pro Domain von 100 auf 300 geändert habe.
Sorry dafür.
Eine schlechte - nein, eigentlich gute - Nachricht gleich hinterher, so wie es im Moment ist kann es auch nicht bleiben.
Ich werde die ganze Link-Geschichte bzw. deren Bewertung im Laufe des Tages nochmal umwerfen.

Wir müssen da unterscheiden zwischen
- Big Player - (inter)national - harte Keywords
- Nischenseite - (inter)national - leichte Keywords
- Regional Auftritt - z.B.: Friseur in Buxtehude
Dementsprechend wird die Anzahl der benötigten Links zu bewerten sein.

Für die reine Linkzahl werde ich auch weniger Punkte vergeben, das was zählt sind die verlinkenden Domains.

Gruß
Kristian

Verfasst: 02.05.2013, 11:17
von mwitte
Ich verschieb das mal unter SEO-Tools

Verfasst:
von

Verfasst: 02.05.2013, 18:33
von Shop_SEO
Habe mal 2 Domains geprüft, bei beiden kommt die Ansage, dass die XML-Sitemap nicht gefunden wurde - Google findet sie aber.

Verfasst: 02.05.2013, 18:41
von Kristian
Hallo,

du wirst eine haben und hast Google mitgeleilt, wie sie heißt bzw. wo sie liegt.
Wir können nur in die robots.txt schauen bzw. machen es im Moment so.
Daher wird der Punkt auch in dem Fall nicht gewertet.
Ich nehme es aber gerne als Anregung einfach mal auf gut Glück eine Sitemap im DOCUMENT_ROOT zu suchen, da gehört sie ja auch hin.

Gruß
Kristian

Verfasst: 02.05.2013, 19:02
von Shop_SEO
Ich klick in meinem CMS einfach auf Sitemap erstellen und das war's. Wird dann als XML erzeugt und ins Root geladen, da muss ich Google nicht mal was von verraten, die wird dann einfach gefunden.

Allerdings kämpfe ich im Moment mit dem Problem, dass in dieser automatisch erzeugten Map auch Verzeichnisse aufgelistet werden, die ich per robots.txt sperre.

Das jedes Mal nachträglich von Hand abzuändern, ist nervig, zumal ich den Shop teilweise mehrmals täglich aktualisiere.

Verfasst: 02.05.2013, 19:13
von Kristian
Hallo,

viele CMS und Shops pingen Google und Co an, wenn es eine neue Sitemap gibt, daher wird die auch immer recht flott gefunden bzw. aktualisiert.
Dein Problem mit der "falschen" Sitemap wird nur ein Programmierer lösen können, der den betreffenden Programmteil so ändert, dass Verzeichnisse die du nicht willst aus einer Liste (DB) gelesen und beim Ertellen der Sitemap ignoriert werden.

Gruß
Kristian

Verfasst: 08.05.2013, 16:27
von Kristian
Hallo,
mwitte hat geschrieben:Ich verschieb das mal unter SEO-Tools
deine Mission als Moderator ist erfüllt.
"Webdesign SEO Check" bei Google Platz eins für Webby ;-)
ist OK, ich profitiere natürlich auch.

Gruß
Kristian

Verfasst: 08.05.2013, 16:33
von Kristian
Hallo,

weil ja morgen alle viel Zeit haben (oder viele) will ich euch die frohe Kunde unterbreiten, dass es ein Update des Tools gab.
Nebst einigen Überarbeitungen gibt es jetzt eine Abfrage der indexierten Seiten, den geliebten grünen Balken und eine Unterscheidungsmöglichkeit der Art des Internetauftrittes.

Ich wünsche euch viel Spaß beim Checken und einen schönen Vatertag (den Vätern natürlich).
Gruß
Kristian

Verfasst: 08.05.2013, 19:19
von Shop_SEO
Noch mal eine Frage: die Site-Abfrage bei Google ergibt bei einer gerade geprüften URL 1.520 Seiten im Index, bei Bing sind es 887. Das Tool gibt stattdessen aber nur 25 indexierte Seiten an?!?!

Wo kommen denn die Daten her?

Verfasst: 08.05.2013, 20:06
von gurken
ich persönlich finds gut, spontan fiel mir auf das mein piwik Code nicht erkannt wurde.
Bei fehlenden Alt Tags wäre es schön zu sehen welche fehlen, aber das würde den Umfang wohl sprengen, vor allem wenn tausende fehlen sollten.
Das gilt generell bei Fehlern, auch bei W3C - hier könnte man die Seite vielleicht direkt per Link an das W3C Testtool weitergeben?

Mein Hauptwunsch wäre die zuletzte geprüften Links zu entfernen, haltet mich eigentlich davon ab mehr abzurufen :D

Verfasst: 08.05.2013, 20:20
von Kristian
Hallo,
Shop_SEO hat geschrieben:Noch mal eine Frage: die Site-Abfrage bei Google ergibt bei einer gerade geprüften URL 1.520 Seiten im Index, bei Bing sind es 887. Das Tool gibt stattdessen aber nur 25 indexierte Seiten an?!?!
Wo kommen denn die Daten her?
Hmmm, tja, die Daten stammen von Google, genauer gesagt von der "neuen" Google-(Custom)SearchAPI.
https://developers.google.com/custom-search/v1/overview

Es ist schon aufgefallen, dass es da "Unterschiede" gibt.

Der bisherige Stand ist, dass bei "gesunden" Seiten die richtige Zahl angezeigt wird.
Bei Seiten die "schwächeln" sehen wir eine deutlich kleinere Zahl, allerdings hält die Zahl bei der Websuche in den Fällen auch nicht Stand, wenn man sich mal durchklickt.
Bei "kranken" Seiten sehen wir eine 1.

Es könnte ja eine Info sein, die es sonst nicht gibt aber das ist eine vage Vermutung.

Was ich davon halten soll weiß ich selber nicht.
Ob ich Google dafür Geld geben will, damit ich erklären muss, warum ich so seltsame Daten ausspucke, tja, die Frage kann ich beantworten...

Ich gehe davon aus, dass ich die API richtig befrage, es läuft aber wohl darauf hinaus, dass ich entweder die alte API (deprecated) nutzen werde oder nach alter Räubermanier die Websuche befrage.

Von G. gibt es dazu bislang kein Statement, außer dem Verweis auf "Neu" und "Kann sich noch ändern" was die Arbeit bzw. Entwicklung auf der neuen Schiene etwas eintrübt.

Gruß
Kristian

Verfasst: 13.06.2013, 11:30
von dmw
Ich find euer Tool klasse, nur stört mich ein wenig, dass rechts die gecheckten Webseiten angezeigt werden. Ich möchte nicht unbedingt jedem unseren Entwicklungsserver preisgeben...

Ansonsten tolle Arbeit