Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Listung in Resultaten und recht bald entstanden Behörde, die sich auf die Besserung ausgerichteten.
In den Anfängen bis zu diesem Zeitpunkt die Aufnahme oft über die Transfer der URL der jeweiligen Seite an die verschiedenen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Webserver der Anlaufstelle, wo ein 2. Software, der gern genutzte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu anderweitigen Seiten).
Die neuzeitlichen Varianten der Suchalgorithmen basierten auf Infos, die anhand der Webmaster selber vorgegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Überblick mit Thema einer Seite, allerdings setzte sich bald hoch, dass die Einsatz er Ratschläge nicht zuverlässig war, da die Wahl der eingesetzten Schlüsselworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts spiegeln hat. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Websites bei charakteristischen Brauchen listen.[2] Auch versuchten Seitenersteller verschiedene Attribute in einem Zeitraum des HTML-Codes einer Seite so zu interagieren, dass die Seite besser in den Suchergebnissen aufgeführt wird.[3]
Da die damaligen Suchmaschinen sehr auf Aspekte dependent waren, die nur in den Händen der Webmaster lagen, waren sie auch sehr vulnerabel für Delikt und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Vergleichsergebnisse in den Ergebnissen zu erhalten, mussten wir sich die Operatoren der Internet Suchmaschinen an diese Rahmenbedingungen einstellen. Weil der Riesenerfolg einer Suchmaschine davon abhängt, relevante Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, konnten ungeeignete Ergebnisse dazu führen, dass sich die Mensch nach anderweitigen Entwicklungsmöglichkeiten für den Bereich Suche im Web umblicken. Die Antwort der Suchmaschinen im Netz vorrat in komplexeren Algorithmen beim Ranking, die Aspekte beinhalteten, die von Webmastern nicht oder nur mühevoll steuerbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Stammvater von Google – eine Suchseite, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch andere Suchmaschinen im Netz bedeckt zu Gesprächsaufhänger der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.