Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im Internet an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Positionierung in den Ergebnissen und recht bald fand man Betrieb, die sich auf die Verfeinerung spezialisierten.
In Anfängen geschah die Aufnahme oft bezüglich der Transfer der URL der jeweiligen Seite bei der unterschiedlichen Search Engines. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Server der Suchseite, wo ein weiteres Programm, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die frühen Versionen der Suchalgorithmen basierten auf Angaben, die mit den Webmaster eigenständig vorgegeben wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben einen Überblick über den Inhalt einer Seite, jedoch registrierte sich bald hoch, dass die Nutzung der Details nicht gewissenhaft war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Seiten bei einzigartigen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedene Attribute in einem Zeitraum des HTML-Codes einer Seite so zu beeinflussen, dass die Seite stärker in den Resultaten gefunden wird.[3]
Da die neuzeitlichen Suchmaschinen im Netz sehr auf Aspekte abhängig waren, die einzig in Händen der Webmaster lagen, waren sie auch sehr empfänglich für Falscher Gebrauch und Manipulationen in der Positionierung. Um überlegenere und relevantere Resultate in Serps zu erhalten, musste ich sich die Anbieter der Suchmaschinen im Internet an diese Gegebenheiten angleichen. Weil der Riesenerfolg einer Recherche davon zusammenhängt, wichtigste Suchergebnisse zu den gestellten Keywords anzuzeigen, vermochten ungeeignete Testurteile darin resultieren, dass sich die Benützer nach weiteren Entwicklungsmöglichkeiten für die Suche im Web umschauen. Die Auskunft der Suchmaschinen im WWW vorrat in komplexeren Algorithmen für das Rang, die Faktoren beinhalteten, die von Webmastern nicht oder nur mühevoll kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Bing – eine Suchmaschine, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch weitere Suchmaschinen im Internet betreffend bei Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Bing