Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Search Engines an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten flott den Wert einer nahmen Positionierung in den Ergebnissen und recht bald entstanden Betrieb, die sich auf die Aufwertung qualifizierten.
In den Anfängen bis zu diesem Zeitpunkt der Antritt oft bezüglich der Übertragung der URL der speziellen Seite bei der diversen Search Engines. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Suchseite, wo ein zweites Computerprogramm, der sogenannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die späten Versionen der Suchalgorithmen basierten auf Infos, die anhand der Webmaster selbst gegeben werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Überblick per Gegenstand einer Seite, doch setzte sich bald heraus, dass die Einsatz er Tipps nicht verlässlich war, da die Wahl der verwendeten Schlagworte dank dem Webmaster eine ungenaue Präsentation des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Webseiten bei einzigartigen Suchen listen.[2] Auch versuchten Seitenersteller diverse Attribute innert des HTML-Codes einer Seite so zu interagieren, dass die Seite größer in Suchergebnissen gelistet wird.[3]
Da die zeitigen Suchmaschinen sehr auf Merkmalen abhängig waren, die nur in den Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Falscher Gebrauch und Manipulationen im Ranking. Um gehobenere und relevantere Ergebnisse in Resultaten zu bekommen, musste ich sich die Besitzer der Internet Suchmaschinen an diese Ereignisse einstellen. Weil der Riesenerfolg einer Suchseite davon abhängig ist, besondere Suchresultate zu den gestellten Keywords anzuzeigen, konnten untaugliche Testurteile dazu führen, dass sich die Anwender nach diversen Möglichkeiten bei dem Suche im Web umsehen. Die Rückmeldung der Suchmaschinen fortbestand in komplexeren Algorithmen beim Platz, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwer steuerbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Urahn von Suchmaschinen – eine Suchmaschine, die auf einem mathematischen Algorithmus basierte, der mit Hilfe der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch sonstige Suchmaschinen im WWW betreffend bei Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen