Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Search Engines an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten unmittelbar den Wert einer lieblings Positionierung in Resultaten und recht bald entwickelten sich Betrieb, die sich auf die Aufbesserung qualifitierten.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft zu der Übermittlung der URL der richtigen Seite in puncto verschiedenartigen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Web Server der Suchmaschine, wo ein 2. Programm, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die frühen Typen der Suchalgorithmen basierten auf Infos, die anhand der Webmaster selbst existieren wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Überblick per Inhalt einer Seite, dennoch setzte sich bald raus, dass die Benutzung dieser Vorschläge nicht solide war, da die Wahl der angewendeten Schlagworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts sonstige Verben kann. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Webseiten bei individuellen Suchen listen.[2] Auch versuchten Seitenersteller verschiedenartige Eigenschaften in einem Zeitraum des HTML-Codes einer Seite so zu steuern, dass die Seite stärker in den Suchergebnissen aufgeführt wird.[3]
Da die frühen Search Engines sehr auf Punkte dependent waren, die ausschließlich in Händen der Webmaster lagen, waren sie auch sehr empfänglich für Delikt und Manipulationen im Ranking. Um überlegenere und relevantere Urteile in den Ergebnissen zu bekommen, mussten sich die Betreiber der Suchmaschinen im WWW an diese Gegebenheiten einstellen. Weil der Gewinn einer Suchmaschine davon abhängig ist, wichtigste Suchresultate zu den gestellten Keywords anzuzeigen, vermochten unpassende Resultate zur Folge haben, dass sich die Mensch nach diversen Chancen für die Suche im Web umgucken. Die Auflösung der Suchmaschinen lagerbestand in komplexeren Algorithmen beim Rangfolge, die Punkte beinhalteten, die von Webmastern nicht oder nur schwer kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Stammvater von Google – eine Suchseite, die auf einem mathematischen Algorithmus basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch andere Suchmaschinen im Netz relevant in Mitten der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Yahoo