Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer nahmen Positionierung in den Resultaten und recht bald entwickelten sich Betrieb, die sich auf die Verbesserung qualifitierten.
In Anfängen passierte die Aufnahme oft bezüglich der Übermittlung der URL der speziellen Seite bei der divergenten Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Search Engine, wo ein 2. Angebot, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die zeitigen Varianten der Suchalgorithmen basierten auf Angaben, die durch die Webmaster selbst existieren wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht mit Gehalt einer Seite, dennoch registrierte sich bald hoch, dass die Nutzung er Tipps nicht ordentlich war, da die Wahl der gebrauchten Schlüsselworte dank dem Webmaster eine ungenaue Vorführung des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei einzigartigen Brauchen listen.[2] Auch versuchten Seitenersteller unterschiedliche Punkte innerhalb des HTML-Codes einer Seite so zu manipulieren, dass die Seite überlegen in Serps gelistet wird.[3]
Da die neuzeitlichen Suchmaschinen sehr auf Faktoren abhängig waren, die alleinig in Fingern der Webmaster lagen, waren sie auch sehr unsicher für Straftat und Manipulationen in der Positionierung. Um überlegenere und relevantere Urteile in den Serps zu bekommen, mussten sich die Betreiber der Search Engines an diese Ereignisse integrieren. Weil der Gelingen einer Anlaufstelle davon zusammenhängt, wichtigste Suchresultate zu den gestellten Keywords anzuzeigen, konnten unpassende Vergleichsergebnisse zur Folge haben, dass sich die User nach sonstigen Optionen wofür Suche im Web umgucken. Die Auflösung der Suchmaschinen im WWW vorrat in komplexeren Algorithmen für das Rang, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Suchseiten, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch übrige Internet Suchmaschinen bezogen in der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Yahoo