Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im Netz an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten schnell den Wert einer lieblings Listung in Ergebnissen und recht bald fand man Behörde, die sich auf die Verbesserung qualifizierten.
In Anfängen passierte der Antritt oft zu der Übertragung der URL der speziellen Seite bei der unterschiedlichen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Web Server der Suchseite, wo ein 2. Computerprogramm, der so genannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die neuzeitlichen Typen der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster selbst vorliegen werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick per Inhalt einer Seite, jedoch setzte sich bald raus, dass die Nutzung dieser Hinweise nicht gewissenhaft war, da die Wahl der genutzten Schlüsselworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts repräsentieren vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Unterseiten bei charakteristischen Stöbern listen.[2] Auch versuchten Seitenersteller mehrere Eigenschaften binnen des HTML-Codes einer Seite so zu beherrschen, dass die Seite richtiger in den Resultaten gelistet wird.[3]
Da die neuzeitlichen Search Engines sehr auf Punkte dependent waren, die einzig in Koffern der Webmaster lagen, waren sie auch sehr instabil für Falscher Gebrauch und Manipulationen in der Positionierung. Um höhere und relevantere Urteile in Ergebnissen zu erhalten, mussten sich die Betreiber der Suchmaschinen im Netz an diese Rahmenbedingungen einstellen. Weil der Erfolg einer Anlaufstelle davon zusammenhängt, relevante Suchresultate zu den gestellten Keywords anzuzeigen, vermochten untaugliche Resultate dazu führen, dass sich die Mensch nach diversen Chancen bei dem Suche im Web umblicken. Die Auskunft der Suchmaschinen lagerbestand in komplexeren Algorithmen beim Positionierung, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwierig kontrollierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Urahn von Google – eine Search Engine, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch andere Internet Suchmaschinen überzogen in Mitten der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Bing