Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten flott den Wert einer lieblings Listung in Resultaten und recht bald fand man Firma, die sich auf die Aufbesserung ausgerichteten.
In Anfängen vollzogen wurde die Aufnahme oft über die Übertragung der URL der entsprechenden Seite bei der verschiedenen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Server der Anlaufstelle, wo ein 2. Programm, der bekannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten).
Die zeitigen Modellen der Suchalgorithmen basierten auf Informationen, die anhand der Webmaster sogar vorhanden werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Eindruck via Inhalt einer Seite, allerdings stellte sich bald hervor, dass die Nutzung dieser Hinweise nicht verlässlich war, da die Wahl der gebrauchten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts spiegeln kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Internetseiten bei besonderen Ausschau halten listen.[2] Auch versuchten Seitenersteller unterschiedliche Merkmale in einem Zeitraum des HTML-Codes einer Seite so zu beherrschen, dass die Seite überlegen in Resultaten aufgeführt wird.[3]
Da die neuzeitlichen Search Engines sehr auf Aspekte angewiesen waren, die allein in den Fingern der Webmaster lagen, waren sie auch sehr empfänglich für Abusus und Manipulationen in der Positionierung. Um tolle und relevantere Testergebnisse in den Serps zu erhalten, mussten wir sich die Betreiber der Suchmaschinen im Netz an diese Rahmenbedingungen adjustieren. Weil der Triumph einer Suchseiten davon abhängig ist, wesentliche Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, vermochten ungünstige Ergebnisse dazu führen, dass sich die User nach diversen Optionen bei dem Suche im Web umblicken. Die Rückmeldung der Suchmaschinen im WWW inventar in komplexeren Algorithmen für das Platz, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht kontrollierbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Search Engine, die auf einem mathematischen Suchsystem basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch sonstige Suchmaschinen im Internet bedeckt in Mitten der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine