Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Search Engines an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten rasch den Wert einer bevorzugten Listung in den Resultaten und recht bald fand man Firma, die sich auf die Aufbesserung qualifitierten.
In den Anfängen passierte die Aufnahme oft über die Transfer der URL der entsprechenden Seite bei der verschiedenen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Webserver der Suchmaschine, wo ein 2. Softwaresystem, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die damaligen Typen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster sogar gegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben einen Überblick über den Content einer Seite, allerdings stellte sich bald hoch, dass die Inanspruchnahme er Details nicht gewissenhaft war, da die Wahl der angewendeten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts spiegeln kann. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Seiten bei charakteristischen Stöbern listen.[2] Auch versuchten Seitenersteller mehrere Eigenschaften im Laufe des HTML-Codes einer Seite so zu interagieren, dass die Seite überlegen in Resultaten gelistet wird.[3]
Da die neuzeitlichen Suchmaschinen im Netz sehr auf Merkmalen abhängig waren, die ausschließlich in den Fingern der Webmaster lagen, waren sie auch sehr labil für Abusus und Manipulationen im Ranking. Um tolle und relevantere Testurteile in den Suchergebnissen zu bekommen, musste ich sich die Betreiber der Search Engines an diese Umständen angleichen. Weil der Riesenerfolg einer Suchseite davon abhängt, besondere Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, konnten ungeeignete Urteile darin resultieren, dass sich die Nutzer nach sonstigen Chancen bei dem Suche im Web umblicken. Die Auskunft der Internet Suchmaschinen lagerbestand in komplexeren Algorithmen beim Ranking, die Aspekte beinhalteten, die von Webmastern nicht oder nur mühevoll beherrschbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Die Suchmaschine – eine Suchseiten, die auf einem mathematischen Suchsystem basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in Rankingalgorithmus reingehen ließ. Auch übrige Suchmaschinen im WWW relevant in der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine