Simulieren oder Optimieren?

10.02.2004 Vor zweieinhalb Wochen, am 24.1., brach das neue Google-Update Austin wie ein Orkan über die Welt der SEOs (Suchmaschinen-Optimierer) herein, viele Websites verschwanden in den SERPs (Suchergebnisseiten) von den gewohnten vorderen Plätzen. Bereits Mitte November gab es mit dem Update Florida einen Vorboten: damals waren in erster Linie noch englischsprachige Suchbegriffe betroffen. Austin beschränkte sich nicht darauf, und so gibt es auch im deutschsprachigen Bereich kaum einen SEO, der nicht den Absturz zumindest einer seiner Websites zu beklagen hatte.

Schon seit den Umwälzungen Ende letzten Jahres kursieren verschiedene Theorien, auf welche Weise Google die Suchergebnisse neuerdings sortiert. Seth Finkelstein beispielsweise geht von der Anwendung eines Bayesian Spam Filters aus, der Spam-Seiten mit wenig relevantem Inhalt ausfiltert, und in den Fachforen wird nun gemutmaßt, dass Webseiten, die überoptimiert sind, in einem Filter hängengeblieben sind. Andere nehmen an, dass die neuen Rankings auf dem Hilltop Algorithmus basieren. Hierbei spielen sogenannte Expert Documents eine Rolle, die zum Topic des gesuchten Begriffes eine Autorität darstellen: ein Link von diesen erhöht die Relevanz einer Website zu dem betreffenden Suchbegriff.

Bislang stellen die Annahmen noch keine gesicherten Erkenntnisse dar; aber unabhängig davon, ob für die neuen Rankings bei Google ein Filter oder ein neuer Algorithmus verantwortlich ist, zeichnen sich zwei unterschiedliche Vorgehensweisen der noch im Halbdunkeln tappenden Suchmaschinen-Optimierer ab. Auf der einen Seite stehen die SEOs, die ausschließlich oder vorrangig damit beschäftigt sind, den neuen Algorithmus bzw. Filter zu "knacken". Ziel ist es dabei, die Filterkriterien zu unterlaufen, bzw. die Relevanz von Expert Documents zu "simulieren". Im Grunde genommen gleicht diese Arbeitsweise derjenigen vor den Updates Florida und Austin: Relevanter Inhalt wird nur vorgetäuscht. Früher erreichte man dies durch Erkaufen und Tauschen von Links, verstecktem Text, für Suchmaschinen erstellte Brückenseiten u.ä. - nun sind (darüber hinaus) Anpassungen und / oder neue Techniken gefragt. Das Resultat solcher Bemühungen ist Suchmaschinenspam, und genau dies wird dazu führen, dass Google seinen Algorithmus und seine Filter nicht zum letzten mal anpasst, um den Suchenden relevante Ergebnisse zu liefern.

Die andere Vorgehensweise entspricht einer Empfehlung von Marissa Mayer, Director of Consumer Web Products at Google, vom Dezember letzten Jahres, wiedergegeben auf webproworld.com:

Have unique useful content. Have sitemaps. Make your site easy to reach with a text-based browser. Give your site a hierarchal structure. Have a single domain with mini-sites within, rather than having lots of sites.

Es ist sicher um einiges aufwendiger, wirklich nützliche Inhalte zu erstellen, statt massenhaft pseudo-relevante Seiten zu generieren. Auf lange Sicht macht sich realer Content aber bezahlbar, für die User, die Suchmaschinen und auch den Webmaster. Nun sind nach den letzten Google-Updates nicht nur Spam-Seiten im Ranking abgestürzt, in einigen Fällen sind auch contentreiche Websites nicht mehr über ihre Haupt-Suchbegriffe zu finden. Allerdings treffen solche Ausnahme-Fälle deren Webmaster nicht ganz so stark, da weiterhin sehr viele Suchende über Mehrwort-Suche auf die contentreichen Unterseiten gelangen. Und man darf nicht außer acht lassen, dass die Suchmaschinen immer bestrebt sein werden, ihre Algorithmen und Filter so anzupassen, dass nützliche Webseiten in den SERPs (wieder) vorne liegen. Die (neuen) Techniken der Suchmaschinen-Spammer dagegen könnten schon beim nächsten Update nicht mehr greifen, denn ihre inhaltslosen Müll-Seiten werden immer auch eine Zielscheibe neuer Filter sein.

Nun reicht es oftmals nicht, nur Content zu erstellen, damit die betreffenden Seiten von den Suchmaschinen in ihren Index aufgenommen und in den SERPs gut gerankt zu werden. Auch hier ist eine Optimierung für Suchmaschinen notwendig; statt mittels Spam-Seiten Relevanz vorzutäuschen, kann man den nützlichen Content ausbauen, und dafür sorgen, dass die Suchmaschinen diesen auch als solchen erkennen. Das Wissen über Ranking-Kriterien ist sicher auch hier hilfreich. Wichtig ist es aber vor allem, nicht die Nutzbarkeit (usability) und Erreichbarkeit (accessibility) des Contents für die User aus den Augen zu verlieren - denn daran orientieren sich in letzter Instanz auch die (erfolgreichen) Suchmaschinen, wenn sie ihre Such-Algorithmen entwerfen.