Tag: SEO
Mitte der 1990er Jahre fingen die 1. Search Engines an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten rasch den Wert einer bevorzugten Listung in Ergebnissen und recht bald entwickelten sich Organisation, die sich auf die Aufbesserung qualifitierten.
In Anfängen vollzogen wurde die Aufnahme oft über die Übertragung der URL der passenden Seite an die vielfältigen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Web Server der Recherche, wo ein zweites Softwaresystem, der so genannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Informationen, die dank der Webmaster eigenhändig existieren sind, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Überblick via Content einer Seite, doch stellte sich bald hoch, dass die Verwendung er Hinweise nicht solide war, da die Wahl der eingesetzten Schlüsselworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts sonstige Verben kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Webseiten bei charakteristischen Suchen listen.[2] Auch versuchten Seitenersteller vielfältige Eigenschaften in einem Zeitraum des HTML-Codes einer Seite so zu beherrschen, dass die Seite stärker in Suchergebnissen gelistet wird.[3]
Da die zeitigen Suchmaschinen im Netz sehr auf Faktoren abhängig waren, die allein in den Händen der Webmaster lagen, waren sie auch sehr unsicher für Delikt und Manipulationen im Ranking. Um tolle und relevantere Urteile in Resultaten zu bekommen, musste ich sich die Operatoren der Search Engines an diese Faktoren integrieren. Weil der Triumph einer Search Engine davon abhängt, wichtigste Suchergebnisse zu den inszenierten Keywords anzuzeigen, vermochten untaugliche Vergleichsergebnisse zur Folge haben, dass sich die Anwender nach anderweitigen Möglichkeiten bei dem Suche im Web umschauen. Die Auflösung der Search Engines vorrat in komplexeren Algorithmen für das Positionierung, die Punkte beinhalteten, die von Webmastern nicht oder nur nicht ohne Rest durch zwei teilbar leicht kontrollierbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Recherche, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus reingehen ließ. Auch zusätzliche Search Engines bedeckt während der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Bing