Online Marketing Forum Deutschland
 
ABAKUS Online Marketing Forum
Suchmaschinenoptimierung
+ABAKUS
ABAKUS bei Google+
Facebook
ABAKUS bei Facebook
Google+ SEO Community von ABAKUS
Google+
SEO Community

   

ABAKUS Foren-Übersicht -> Ich hab' da mal 'ne Frage
 

Fachausdrücke / Lexikon R - Z

Neues Thema eröffnen   Dieses Thema ist gesperrt, du kannst keine Beiträge editieren oder beantworten.
 Mobile Seo so eine Seite un dann schon PR2  
Margin

pr


: 09.09.2005
: 4649



: 22.09.2008, 12:46    : Fachausdrücke / Lexikon R - Z
Von: Margin
Margin
10 22.09.2008, 12:46
Antworten mit Zitat Antworten mit Zitat

!GRUNDLAGEN!

Stichworte R - Z
- Ranking - Robot
- Sandbox - SB - Scraping - Scraper - SEA - SEM - SEO - SERP - Siloing - Sitelinks - SMO - Spam - Spider - Stemming - Stuffing - SuMa
- Themenrelevanz - Toolbar - Trust - Trusted Link - TrustRank
- User Agent
- Webmaster-Tools (WMT) - Weiterleitung
- Yahoo Site Explorer


Ranking
Mit Ranking - Rang - ist unter SEOs die Platzierung einer Seite in den Suchergebnissen einer Suchmaschine zu einem bestimmten Keyword, Suchbegriff gemeint. Ein hohes Ranking zu den gewünschten Suchbegriffen und die dadurch erzielte Monetarisierung sind das Ziel aller SEO-Bemühungen - der Ursprung der Suchmaschinenoptimierung. Die Höhe des Rankings wird maßgeblich durch Linkempfehlungen auf anderen Seiten für das zu optimierende Projekt beeinflusst.


Robot
Als Robot - Roboter - bezeichnet man in der Onlinewelt ein Programm / Script, das immer wiederkehrende Aufgaben weitgehend selbstständig erledigt. Zu den bekanntesten Robots gehören wohl die Webcrawler der Suchmaschinen, die systematisch und kontinuierlich das Internet nach neuen oder geänderten Inhalten absuchen.


Sandbox
Der Begriff Sandbox - Sandkiste / Spielwiese - stammt im elektronischen Bereich eigentlich aus der Programmierung und bezeichnet eine geschützte Laufzeitumgebung für ein neues oder zu testendes System.

In den SEO-Bereich wurde dieser treffende Begriff für ein unliebsames Google-Phänomen übernommen, das oftmals neue Seiten betrifft oder solche, die lange "geruht" haben: Wird eine neue oder "eingeschlafene" Seite schlagartig mit sehr vielen oder sehr starken Backlinks versehen, rutscht sie abrupt in den Suchergebnissen insbesondere zu ihren Hauptsuchbegriffen ins sprichwörtliche Nirvana und verweilt dort i. d. R. für einige Monate.

Das Sandbox-Phänomen ist dadurch zu erklären, dass Suchmaschinen mit Filtern arbeiten, die u. a. einen unnatürlichen Linkaufbau (Manipulationen an den Suchergebnissen seitens der Webmaster) eindämmen sollen. Um dies zu realisieren, greifen die Filter für die Keys der Linktexte, die scheinbar unnatürlich entstanden sind.

Die immer wiederkehrende Frage, wieviele Links und welche sind möglich, ohne in den Filter zu rutschen, ist in keiner Weise zu beantworten. Fakt ist jedoch, dass es mit ein wenig Feingefühl und ohne Gier sehrwohl funktioniert, eine Seite zu optimieren, ohne dass sie in der Sandbox landet.


SB - Social Bookmarks
Die Grundidee der Social Bookmarks - öffentliche Favoritenlisten - basiert darauf, die eigenen Linksammlungen, die für gewöhnlich im Browser abgelegt werden, öffentlich zu speichern und für jedermann zugänglich zu machen. Die Links aus solchen Bookmark-Diensten werden von einigen Webmastern genutzt / missbraucht, um den Linkpool des eigenen Projekts aufzustocken.


Scraping
Scraping bedeutet eigentlich kratzen, jedoch der neudeutsche Begriff "abgreifen" beschreibt die im SEO-Bereich gemeinte Bedeutung weitaus treffender. Beim Web Scraping werden - i. d. R. von Bots, Scripten - von fremden Webseiten Inhalte ausgelesen und für eigene Zwecke genutzt - in vielen Fällen wäre "missbraucht" richtiger.

Beim Scraping können gezielte Daten ausgelesen werden, beispielsweise Adressdaten für eine Adressdatenbank, oder aber auch komplette Seiten kopiert werden, die dann auf fremden Domains publiziert werden. Die meisten Formen in denen Scraping genutzt wird, sind illegal.


Scraper
Als Scraper werden sowohl die Bots und Scripte bezeichnet, die Daten von fremden Seiten für eigene Zwecke "abgreifen" (s. o. Scraping) als auch die Personen, die dies veranlassen.

Von einigen dieser Bots sind (oftmals nur vorrübergehend) die IP-Adressen bekannt und man kann sie über die .htaccess aussperren und so einen weiteren Schaden zumindestens eingrenzen.


SEA
SEA - Search Engine Advertising - Suchmaschinenwerbung, ist einer der beiden großen Teilbereiche des Suchmaschinenmarketings. Die bekannteste Form der Suchmaschinenwerbung ist wohl das Keyword-Advertising: Zu bestimmten Suchbegriffen werden bei den Suchmaschinen Topplatzierung (z. B. die ersten 3 angezeigten "Suchergebnisse") gekauft oder ersteigert.


SEM
SEM - Search Engine Marketing - Suchmaschinen-Marketing - ist der Oberbegriff für alle Aktivitäten, die die Besucherzahl einer Seite steigern sollen.

Das Suchmaschinen-Marketing ist aufgeteilt in folgende 2 große Bereiche:
1. SEO - Search Engine Optimization - Suchmaschinenoptimierung
2. SEA - Search Engine Advertising - Suchmaschinenwerbung


SEO
SEO - Search Engine Optimization - bedeutet auf deutsch "Suchmaschinenoptimierung". Das Kürzel wird jedoch parallel ebenfalls als "Berufsbezeichnung" für den Suchmaschinenoptimierer genutzt.

SEO ist ein Teilbereich des Suchmaschinenmarketings und umfasst alle onpage und offpage Maßnahmen außer bezahlter Werbung, die ergriffen werden, um die Positionierung eines Projektes zu bestimmten Suchbegriffen innerhalb der Suchergebnisse zu verbessern.


SERP
Das Kürzel SERP hat gleich 2 Bedeutung und beide sind gleich häufig gemeint. Hier gilt es also auf den Kontext zu achten, indem es verwendet wird:
1. SERP - SerchEngine Results Page - Suchmaschinen-Ergebnisseite
2. SERP - SearchEngine RankingPosition - Suchmaschinen-Platzierung
(Platzierung innerhalb der Ergebnisse zu einem bestimmten Suchbegriff)


Siloing
Das Siloing - "separat speichern / ansammeln" ist ein recht junges Verfahren im SEO-Handwerk und eigentlich auch erst mit der ausgeprägten Mischkultur des web2.0 in Verbindung mit gesteigerter Wertigkeit der Themenrelevanz seitens der Suchmaschinen wirklich relevant geworden.

Schaut man sich die unzähligen, aus dem Boden sprießenden, neuen Projekte - beispielsweise Blogs - einmal genauer an, sind viele einfach eine eierlegende Wollmilchsau, das reinste Themenwirrwarr von lila Gartentürchen bis hin zu Osterhasen im Dezember - alles einfach querbeet durcheinander und von themenrelevanter Verlinkung weit und breit keine Spur.

Genau an diesem Punkt setzt das Siloing an: Das eigene Projekt wird unter die Lupe genommen und strukturiert. Alles, was zu einem Themenbereich gehört, beispielsweise das Thema "Ostern", wird untereinander verlinkt und Links zu anderen Themen, beispielsweise "Weihnachten" werden rigoros mit "nofollow" versehen. Auf diese Weise wird die Themenrelevanz erhöht und es wird gleichzeitig vermieden, dass ungewollt Power auf die Optimierung des langohrigen Weihnachtsmanns vergeudet wird.


Sitelinks
Als Sitelinks - (Unter-)Seitenlinks - werden in den Suchergebnissen zusätzliche, weiterführende Links eines Projektes unter einem Suchergebniss bezeichnet (NICHT ein zweites, eingerücktes Ergebnis der gleichen Seite). Für gewöhnlich werden diese automatisch seitens der Suchmaschinen generiert und ausschließlich angezeigt, wenn die Seite auf Platz 1 steht. Beispiel: Wikipedia

Eine verkürzte, einzeilige Ausgabe der Sitelinks erfolgt teilweise in den Ergebnissen auch auf anderen Positionen als ausschließlich auf Platz 1. Eine klare, eindeutige Strukturierung des Menüs, bspw. mittels Listing, erleichtert den Bots die Identifizierung.

Häufig wird mit dem ersten Auftauchen von Sitelinks das Statement aufgestellt, die Seite sei nun eine Autorität, was so nicht korrekt ist. Eine Autorität besitzt zwar meistens Sitelinks, aber nicht jede Seite, die Sitelinks besitzt, ist auch automatisch eine Themen-Autorität im Web, z. B. der Schuster in Klein-Kleckersdorf. (Nun ja, andersrum ist er als einziger Schuster am Ort eventuell doch in Klein-Kleckersdorf die Kapazität in Sachen Schuhreparatur.)


SMO
SMO - Social Media Optimization - Optimierung für soziale Mediendienste, wobei im deutschen der Begriff "Sozial" zumeist erheblich enger belegt ist und hier eher sozial im Sinne von "miteinander" gemeint ist. Eine der bekanntesten Formen sind hier wohl die Social-Bookmark-Dienste, bei denen jedermann seine beliebtesten Webseiten ablegen und öffentlich zugänglich machen kann.

Die gängigsten Praktiken bei der SMO sind das Einbinden von Social-Bookmarkanbieter-Button, das Anbieten von RSS-Feed, aber auch das Speichern der eigenen Seiten bei SB-Diensten.


Spam
Spam, häufig auch als Junk - Müll, Abfall - bezeichnet, ist der Sammelbegriff für alles, was uns unverlangt und unerwünscht, auf elektronischem Wege ins Haus flattert. Spamer beschränken sich nicht auf den eMail-Verkehr, sondern müllen auch ganz genauso Blogs, Gästebücher, Foren u.s.w gnadenlos zu. Spamen ist unzulässig und in vielen Fällen sogar mit empfindlichen Strafen belegt, allerdings ist es i. d. R. gar nicht so einfach, den Verursacher festzustellen. Weiterführende diesbezügliche Diskussionen finden sich im Unterforum Internet-Recht & -Gesetz.


Spider
Mit Spider - Spinne, auch als Webcrawler - Webkrabbler /-Kriechtier, bezeichnet, sind Scripte gemeint, die weitgehend selbsttätig das Web nach allgemeinen oder gezielten Inhalten durchsuchen. Zu den bekanntesten "Kriechtieren" gehören wohl die Crawler der Suchmaschinen.


Stemming
Stemming - entstielen - bezeichnet ein Verfahren, welches es ermöglicht, automatisiert den Wortstamm eines Wortes zu erkennen. Für Suchmaschinen ist dieses Verfahren relevant, um Suchanfragen der User richtig zuordnen und die (wahrscheinlich) gewünschten Ergebnisse ausliefern zu können. Der Stemming-Algorithmus ermöglicht es der Suchmaschine, bei Suchanfragen nach z. B. Baum, Baumschule, Bäume, des Baumes u.s.w. immer zu erkennen, dass der User Seiten über Bäume sucht.


Stuffing
Stuffing - vollstopfen - bezeichnet das unschöne - teilweise auch gegen die Google-Richtlinien verstoßende - Vollstopfen der Seiten mit Schlüsselbegriffen. Stuffing bezeichnet sowohl das völlig sinnfreie Überfrachten der Metas mit Keywords, als auch das bis ins Unlesbare gehende Formulieren des Contents, nur um möglichst oft / möglichst viele Suchbegriffe unterzubringen und findet seine Krönung in endlosen Texten, oftmals in Mikroschrift, am Seitenende - teilweise sogar außerhalb des auf Anhieb für den Besucher sichtbaren Bereichs. Letzteres wird immer häufiger insbesondere von Google als Regelverstoß mit Ausschluss aus den Suchergebnissen geahndet.


SuMa
SuMa ist die geläufige Abkürzung für das deutsche Wort SuchMaschine.


Themenrelevanz
Die Themenrelevanz - Themenverwandtheit - beschreibt den Verwandtheitsgrad zweier oder mehrerer Themen zueinander. So besitzen beispielsweise die Themen "Weihnachten" & "Weihnachtsmann" eine hohe Themenrelevanz, die Themen "Weihnachten" & "Feiertage" eine durchschnittliche Themenrelevanz und die Themen "Weihnachten" & "Hochsommer" keine Themenrelevanz.

Die Themenrelevanz bildet bei der Optimierung einen der wesentlicheren Faktoren, sowohl onpage als auch offpage.

Themenrelevanz onpage:
Soll beispielsweise eine Seite zu dem Suchbegriff "Weihnachten" optimiert werden, so wirkt sich diese Optimierung umso stärker aus, je mehr themenrelevante Seiten in direkter Nachbarschaft sind. So läßt sich z. B. ein komplettes Projekt, sagen wir 50 Seiten, rund um das Thema Weihnachten erheblich leichter pushen, als eine einzelne Themenseite in einem Blog, die mitten zwischen Ostern und Hochsommer steht, da es nicht nur sehr viele themenähnliche Unterseiten besitzt, sondern diese auch noch hochgradig themenrelevant untereinander verlinkt sind. (s. a. Siloing)

Themenrelevanz offpage:
Einmal davon abgesehen, dass die Themenrelevanz und ihre Wertigkeit was die Suchmaschinen angeht, umstritten ist - es ist unklar, in welchem Umfang Themenrelevanz erkannt werden kann oder wird - ist man mit einer hohen Themenrelevanz jedoch immer auf der sicheren Seite.

Offpage existieren diesbezüglich 4 Optimierungs-Möglichkeiten:
1. Der für die Verlinkung genutzte Linktext sollte, sofern möglich, immer themenrelevant für die angelinkte Seite gewählt werden.

2. Die Themenrelevanz dieses Links läßt sich dadurch steigern, dass der Linktext in einen kleinen, relevanten Context gesetzt wird - einen eigenen Absatz.

3. Eine noch höhere Themenrelevanz läßt sich für den Link auf ansonsten themenfremden Projekten dadurch schaffen, dass eine eigene, themenrelevante Unterseite für diesen Link angelegt wird. (Dieses Verfahren führt für die Linkgeber häufig zu einem Interessenskonflikt in Bezug auf die eigene Onpage-Themenrelevanz.)

4. Der Linkgeber betreibt selber ein Projekt mit hoher Themenrelevanz zum eigenen. (Auch in diesem Fall gibt es häufig Interessenskonflikte, da befürchtet wird, mit einer Linkempfehlung die eigenen Mitbewerber zu stärken.)

Bei all der Themenrelevanz sollte jedoch nicht der Faktor der natürlichen Verlinkung vergessen werden. Bei einer natürlich gewachsenen Verlinkung, so wie die Suchmaschinen sie am liebsten mögen, linkt auch der Schlachter ganz einfach mal auf den Schneider, einfach weil ihm sein neuer Anzug gefällt.


Toolbar
Eine Toolbar ist nichts weiter als eine Werkzeugleiste. Im SEO-Bereich ist zumeist die Google-Toolbar gemeint, die es dem SEO ermöglicht, beispielsweise den Pagerank jeder x-beliebigen Seite zu sehen, einen Linkreport über die interne Linkstruktur abzurufen u. v. m. Diese Toolbar ist für alle gängigen Browser i. d. R. kostenlos erhältlich und es existieren unzählige Erweiterungs- und Ergänzungspacks, die teilweise im Tagesgeschäft nützliche Dienste leisten.


Trust
Trust - Vertrauen - der große SEO-Mythos, der de facto existiert, aber nicht wirklich greifbar bewiesen werden kann. Die Rede ist hier von dem Vertrauen einer Suchmaschine - respektive von Google und den auf Google basierenden - in eine Seite.

Google vertraut (eventuell) auf eine Seite, wenn sie eine hohe Themenrelevanz zu dem vom User gesuchten Bereich aufweist, von vielen Kapazitäten des gleichen Themengebiets empfohlen wird, von vielen Usern angeklickt, gebookmarkt, lange gelesen wird u. s. w. und obendrein auch noch den Google-Richtlinien entspricht. Garantien gibt es hierfür jedoch keine. Teilweise rekonstruiert wurde jedoch der Umstand, dass bei diesen Trusted-Sites ganz offensichtlich oftmals auch manuell eingegriffen wird und sie von Quality-Ratern als solche gekennzeichnet werden.

Was es bringt, eine Trusted-Site zu besitzen? Einen ganz klaren Ranking-Vorteil - solche Seiten ranken zu allem und jedem fast mühelos. Als eine dieser Trusted-Sites gilt z. B. Wikipedia, auch wenn sie ganz offensichtlich - warum auch immer - ein wenig an Trust eingebüßt haben. Weitere Beispiele sind das DMOZ, das W3C und Unsiversitätsseiten.


Trusted Link
Ein Trusted Link - vertrauenswürdiger Link - ist ein Link von einer Trusted-Site. Sie sind wohl eine der besten und wertvollsten Empfehlungen, die eine Internetpräsenz bekommen kann: Empfiehlt eine Seite, der Google vertraut, eine andere Seite, dann muss da ja was dran sein und so bekommt auch die empfohlene Seite bereits automatisch "Vorschuss-Lorbeeren" - ein wenig Vertrauen von Google.


Trust Rank
Der Trust Rank - der Grad des Vertrauens einer Seite und die dementsprechende Platzierung auf einer Skala, ist weniger bekannt, funktioniert jedoch ähnlich wie das PageRank-Prinzip und basiert auf einem bislang noch nicht entschlüsselten Algorithmus im Hintergrund. Er wird von Google nicht für den User sichtbar ausgegeben, ist jedoch einer der wesentlicheren Ranking-Faktoren und färbt von einer Seite auf die nächste ab. Das Gegenteil vom Trust Rank ist der erheblich bekanntere Bad Rank, der ebenfalls abfärbt - Stichwort "Bad Neighborhood", schlechte Nachbarschaft.


User Agent
Der User Agent, das Benutzer-Programm, ist die Schnittstelle, für den User um Webdienste nutzen zu können. Die beiden bekanntesten sind hier wohl der Mail-Client und der Internet-Browser. Bei der Kommunikation senden diese User Agents i. d. R. in der Kopfzeile (Header) ihren Namen mit um sich zu identifizieren. Es hat sich eingebürgert, den Begriff User Agent ebenfalls für diese Kennung im http-header zu nutzen.


Webmaster-Tools - WMT
Webmaster-Tools, Werkzeuge für den Webmaster, gibt es unzählige. Angefangen von Analyse-Tools für Fehler im Quellcode, Statistik-Tools, Backlink-Analyse-Tools, Tools zur Bestimmung der Keyword-Dichte und viele mehr.

Sogar Google selber stellt interessierten Webmastern ein eigenes Paket "Webmaster-Tools" zur Verfügung, welche direkt auf die Belange des Suchmaschinenriesen abgestimmt sind. So können beispielsweise direkt aus dem Interface herraus unzählige Statistiken abgerufen, Sitemaps eingereicht, Backlinks angezeigt und Seiten-Lesefehler analysiert werden.


Weiterleitung
Eine Weiterleitung, der englische Fachbegriff lautet Redirect, ist gut zu vergleichen mit einem Post-Nachsendeantrag: Er ist z. B. sinnvoll, wenn man dauerhaft umgezogen ist. Ist ein Projekt von einer Domain auf eine andere oder eine einzelne Seite dauerhaft umgezogen, dann wird die sogenannte .htaccess mit der Weiterleitungsform 301 genutzt, mittels welcher alle Anfragen an die alte Domain automatisch an die neue weitergeleitet werden. Ist man nur vorrübergehend ortsabwesend, dann entspricht das bei den Weiterleitung der Form 302, welche jedoch leider nicht immer reibungslos funktioniert (kann z. B. das so genannte Hijacking verursachen) und deshalb besser gemieden werden sollte.

Es gibt auch diverse andere Möglichkeiten, eine Weiterleitung zu realisieren, wenn aus technischen oder sonstigen Gründen die Möglichkeit einer .htaccess nicht genutzt werden kann. So kann man sie beispielsweise per meta refresh, via php oder auch mittels Javascript umsetzen. Sie haben alle ihre Vor- und Nachteile und wenn irgendwie möglich sollte der .htaccess als sauberster Lösung immer der Vorzug gegeben werden.

Weitere Hilfen und Infos finden sich im Unterforum Webcoding und -Programmierung


Yahoo Site Explorer
Der Yahoo Site Explorer bildet das Yahoo-Pendant zu den Google-Webmaster-Tools. Allerdings ist er nicht annähernd so umfangreich gestaltet, sondern bietet dem Webmaster eher rudimentäre Möglichkeiten, wie beispielsweise das Feststellen der bereits indexierten Seiten und Links.

---

Anregungen und Kritiken bitte ins Forum- und Community-Feedback
Danke für Eure Hilfe: Nutzer0815 - Schwede - Huggy - jackwiesel - wehwehweh - chrizz - rechtlegal - Cura - luzie - Mork vom Ork - profo
10
Nach oben
Margin Private Nachricht senden E-Mail senden WWW
Neues Thema eröffnen   Dieses Thema ist gesperrt, du kannst keine Beiträge editieren oder beantworten.    ABAKUS Foren-Übersicht -> Ich hab' da mal 'ne Frage

Seite 1 von 1
 





Ähnliche Beiträge
Thema Online Marketing Forum Antworten
[B] Lexikon Zierfische [B] Lexikon Zierfische Merli Marktplatz: Dienstleistungen 0 17.03.2017, 12:21 [B] Lexikon Zierfische
[B] Lexikon "Zierfische" [B] Lexikon "Zierfische" Merli Marktplatz: Dienstleistungen 0 21.06.2016, 18:40 [B] Lexikon "Zierfische"
[B] Lexikon Zimmerpflanzen [B] Lexikon Zimmerpflanzen Merli Marktplatz: Dienstleistungen 0 06.05.2015, 17:30 [B] Lexikon Zimmerpflanzen
[B] Finanz-Lexikon 50 Begriffe Versicherung [B] Finanz-Lexikon 50 Begriffe Versic... contentbox Marktplatz: Dienstleistungen 0 24.02.2015, 10:43 [B] Finanz-Lexikon 50 Begriffe Versicherung
[B] Bieten kleines Versicherungs-Lexikon mit 50 Begriffen [B] Bieten kleines Versicherungs-Lexi... contentbox Marktplatz: Dienstleistungen 0 05.01.2015, 12:35 [B] Bieten kleines Versicherungs-Lexikon mit 50 Begriffen
[B] Kleines Pilz-Lexikon [B] Kleines Pilz-Lexikon Merli Marktplatz: Dienstleistungen 0 11.11.2014, 10:16 [B] Kleines Pilz-Lexikon
[B] Lexikon Finanzen & Kapitalanlagen [B] Lexikon Finanzen & Kapitalanl... seodorant Marktplatz: Dienstleistungen 0 21.09.2014, 14:06 [B] Lexikon Finanzen & Kapitalanlagen


SEO Wetter von www.seowetter.de

Startseite der SEO-Agentur ABAKUS | SEO Blog | SEO Online Tools | SEO Angebote | Modulare SEO Seminare

Impressum | Datenschutz

Fachausdrücke / Lexikon R - Z Fachausdrücke / Lexikon R - Z - Österreich Fachausdrücke / Lexikon R - Z - Schweiz

Dieses SEO Forum läuft unter phpBB.


Sie lesen gerade: Fachausdrücke / Lexikon R - Z