Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Suchmaschinen im WWW an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten rasch den Wert einer bevorzugten Positionierung in den Ergebnissen und recht bald entwickelten sich Betriebe, die sich auf die Besserung spezialisierten.
In den Anfängen geschah der Antritt oft über die Übertragung der URL der passenden Seite bei der divergenten Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Web Server der Suchseite, wo ein weiteres Computerprogramm, der allgemein so benannte Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die zeitigen Versionen der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster selber bestehen werden, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick mit Essenz einer Seite, doch setzte sich bald herab, dass die Benutzung der Tipps nicht gewissenhaft war, da die Wahl der gebrauchten Schlüsselworte dank dem Webmaster eine ungenaue Vorführung des Seiteninhalts reflektieren vermochten. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei speziellen Brauchen listen.[2] Auch versuchten Seitenersteller vielfältige Attribute binnen des HTML-Codes einer Seite so zu manipulieren, dass die Seite richtiger in Suchergebnissen aufgeführt wird.[3]
Da die späten Suchmaschinen im Internet sehr auf Merkmalen angewiesen waren, die alleinig in den Koffern der Webmaster lagen, waren sie auch sehr empfänglich für Delikt und Manipulationen in der Positionierung. Um gehobenere und relevantere Testurteile in Suchergebnissen zu bekommen, mussten wir sich die Operatoren der Suchmaschinen an diese Gegebenheiten angleichen. Weil der Riesenerfolg einer Search Engine davon abhängt, besondere Suchresultate zu den gestellten Suchbegriffen anzuzeigen, vermochten untaugliche Ergebnisse darin resultieren, dass sich die Nutzer nach anderweitigen Varianten für den Bereich Suche im Web umsehen. Die Erwiderung der Internet Suchmaschinen inventar in komplexeren Algorithmen beim Rang, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht leicht manipulierbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Urahn von Google – eine Suchseiten, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch zusätzliche Search Engines bezogen in Mitten der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.