Die Voraussetzungen und das Vorgehen von Suchmaschinen haben sich in den letzten 20 Jahren rasant verändert. Diese Genese brachte diverse elementare Anpassungen gängiger Strategien der Suchmaschinenoptimierung mit sich. Vor allem in den 2010er Jahren waren noch vor Kurzem höchst effektive Ansätze mitunter praktisch über Nacht hinfällig. Effiziente Search Engine Optimization mit bestmöglichem Nutzen zu betreiben, ist aufgrund der nach wie vor stetig intelligenter werdenden Suchmaschinen sowie der zunehmenden Konkurrenz im Web heute schwieriger, aber zugleich auch wichtiger denn je.

Google bildet mittlerweile den Nummer-Eins-Startpunkt für Netzgänger auf der ganzen Welt. Immer mehr Menschen bemühen zudem erst einmal die Suchmaschine, wenn es Probleme und Herausforderungen zu lösen gilt. Das Trifft sowohl im privaten als auch im beruflichen Umfeld zu. Entwicklungen sowie Erwartungshaltungen spielen zusammen und bilden als Resultat eine SERPs-Landschaft, die an Möglichkeiten und Qualität kaum mit jener von vor zehn oder gar 20 Jahren vergleichbar ist. Die fortwährende Entfaltung der Suchmaschinen (und damit der SEO) hat die Optimierung von Websites für erstere zu einem fast obligatorischen Erfolgs-Sprungbrett in der digitalen Marketing-Welt gemacht.

In den 1990er Jahren und den frühen 2000ern ging es bei Search Engine Optimization oft primär darum, Inhalte mit möglichst vielen Keywords zu füllen und immense Backlink-Profile (mit zumeist fragwürdigen Mitteln) aufzubauen. Nach diversen Google-Algorithmus-Updates, die es der Suchmaschine derweil erlauben, derartige Praktiken zu erkennen, haben sich die Ansätze grundlegend verändert. Es gilt nicht mehr in erster Linie die Suchmaschine zufriedenzustellen, sondern dem Publikum eine positive Experience zu bieten und zu gewährleisten, dass User genau die Informationen finden, die Sie in der jeweiligen Situation benötigen. In diesem Beitrag lesen Sie, wie sich die Anforderungen im Laufe der Jahre verschoben haben und erfahren zugleich, welche Faktoren für eine erfolgreiche Suchmaschinenoptimierung heute und (vermutlich) auch in Zukunft besonders relevant sind.

Die Rolle der User Experience in der SEO

Zu Anfangszeiten der Suchmaschinen kamen Begriffe, wie Usability und User Experience, praktisch nicht im SEO-Vokabular vor. Seitdem hat sich die Search Engine Optimization jedoch sukzessive an eine nutzerorientierte Herangehensweise angenähert. Taktiken, die auf die Bereitstellung einer optimalen Benutzererfahrung ausgelegt sind, stehen heute tatsächlich im Zentrum jeder SEO-Strategie. Kein Wunder, denn Google und Co. haben gelernt, auch solche Qualitätsmerkmale zu erkennen. Websites, die eine optimale User Experience bieten, schneiden nicht erst seit gestern im Ranking deutlich besser ab als solche, die zum Beispiel ausschließlich statische Informationen bereitstellen. Content sollte also generell genauestens auf die Betrachter und deren (mutmaßliche) Situation abgestimmt sein. Im Zuge des Ausbaus der Verwendung künstlicher Intelligenz für die Einstufung im Ranking, wird die Relevanz der User Experience vermutlich noch einmal deutlich zunehmen.

Einzigartige, wirklich nützliche Inhalte – früher und heute

Aus dem letzten Absatz geht bereits hervor, dass genauestens ausgerichteter Content in der modernen SEO eine ganz besondere Rolle einnimmt. Sollten Sie heute auf uninteressante, unstrukturierte Standardformulierungen oder gar Plagiate setzen, werden Sie damit keine Suchmaschine überzeugen können. Nur absolut einzigartige Inhalte mit echtem Mehrwert führen zum Erfolg. Die Entwicklung einer zielgenauen Content Marketing-Strategie ist für Website-Betreiber also unabdingbar.

Anfang/Mitte der 2000er Jahre wurde dagegen oft auf sogenannten Spammy Content gesetzte. Dabei handelte es sich zum Beispiel um Texte, die dem Betrachter kaum einen Nutzen bringen, und dabei eine sehr hohe Keyword-Dichte aufweisen. Derartige Taktiken waren überaus erfolgreich – bis das Panda Update eintrat. Mit dessen Launch im Jahr 2011 wurden entsprechende Inhalte massenweise abgestraft. Mancher Webmaster sah sich gezwungen, seine komplette Website zu überarbeiten oder sogar ganz von vorne zu beginnen. Aussagekräftiger und qualitativ hochwertiger Content war plötzlich „King“ – und ist es bis heute!

Gute, abgestimmte Inhalte nehmen aktuell eine gewisse Vormachtstellung innerhalb der SEO ein und werden sie wohl auch zukünftig innehaben. Da immer mehr Websites diese Tatsache berücksichtigen, wird es für Website-Betreiber zunehmend schwerer, sich wirklich von der Konkurrenz abzuheben. Über Inhalte mit echtem Mehrwert allein wird das zukünftig voraussichtlich nicht immer gelingen. Sie bleiben zweifelsohne eine effektive SEO-Maßnahme, dabei müssen aber stets auch viele weitere Faktoren berücksichtigt werden.

Die Bedeutung der Seitengeschwindigkeit

Bevor wir uns genauer mit der Frage beschäftigen, wie die Ladegeschwindigkeit einer Website, oder auf Englisch der Page Speed, zu einer absoluten Priorität der Search Engine Optimization wurde, hier einige Fakten: Nach Angaben von Akamai, einem der weltweit führenden Geschwindigkeits-Optimierer von Online-Anwendungen, verlieren Website, die heute länger als zwei bis drei Sekunden zum Laden benötigen, tendenziell fast die Hälfte Ihrer Besucher. Außerdem erwarten mittlerweile rund 50 Prozent der Web User, dass Inhalte in 2 Sekunden oder weniger bereitstehen. Schon diese Fakten sprechen ganz klar für eine immens hohe Relevanz des Page Speeds. Wo liegt nun aber der Zusammenhang mit der Suchmaschinenoptimierung?

Die Seitengeschwindigkeit wurde seit den 2000er Jahren allmählich zu einem wichtigen Faktor für die Benutzerfreundlichkeit. Es zeichnete sich mehr und mehr ab, dass sie einen erheblichen Einfluss auf die Conversions ausübt – und das blieb natürlich auch Google nicht verborgen. In Bezug auf dessen Ranking sprach man dem Page Speed schon vor geraumer Zeit eine gewisse Relevanz zu. Mit dem Launch seines Speed Online Tools verkündete Google dann im Jahr 2011 indirekt, dass die Geschwindigkeit von Webseiten tatsächlich einen Einfluss auf die Positionierung in den SERPs hat. Hier der genaue Wortlaut aus dem Webmaster Central Blog:

„Bei Google sind wir bestrebt, das gesamte Web schnell zu machen. Als Teil dieser Bemühungen starten wir ein neues webbasiertes Tool innerhalb von Google Labs, Page Speed Online, das die Leistung von Webseiten analysiert und konkrete Tipps zur Beschleunigung jener gibt. Page Speed Online ist von jedem Browser aus und zu jeder Zeit verfügbar. Dies ermöglicht es Website-Betreibern, unkompliziert auf Vorschläge zur Geschwindigkeitserhöhung zuzugreifen und ihre Pages schneller zu machen.“

Obwohl keine konkrete Benennung des Page Speeds als Ranking-Faktor erfolgte, reagierten SEO-Experten prompt. Der Gedankengang war folgender: Warum sollte Google ein solches Tool bereitstellen, wenn die Geschwindigkeit nicht wichtig wäre? Es dauerte noch einige Jahre bis Google Page Speed im Sommer 2018 ganz offiziell zu einem der top Ranking-Signale machte. Die von Akamai veranschlagten Ladezeiten wurden von der Suchmaschine weitegehend bestätigt. Dennoch haben bisher nur die wenigsten Website-Betreiber reagiert. Da die Erwartungshaltung der User in puncto Page Speed und damit auch die Bewertung durch Google vermutlich weiter in Richtung der Null-Sekunden-Marke geht, dürfte es zukünftig immer schwerer werden, den Rückstand aufzuholen.

Die Veränderung der SERPs

Die Suchmaschinen-Ergebnisseiten (Search Engine Result Pages – SERPs) wurden in den letzten 20 Jahren praktisch ständig angepasst. Eine Zusammenfassung sämtlicher Updates und Redesigns ist kaum möglich. Oft schienen die Änderungen für die Nutzer minimal, hatten dabei jedoch tatsächlich meistens immense Auswirkungen auf die Usability der Suchmaschine. Ziel war es stets, eine schnellere und zielgenauere Suche zu ermöglichen.

Gleich mit dem Start von Google im Jahr 1998 ging auch der PageRank-Algorithmus an die Arbeit, der einen revolutionären neuen Ansatz für das Ranking von Websites verfolgte. Zum ersten Mal wurden Ergebnisse in den SERPs nach Relevanz für die jeweilige Suche geordnet. Zwar gab es bereits vor Google (schon Anfang der 1990er Jahre) Suchmaschinen und damit Search Engine Optimization, jene beschränkten sich jedoch zumeist vornehmlich auf die Einstufung anhand von simplen Keywords. Aufgrund der mit Google eintretenden zunehmenden Differenzierung gilt dessen Launch für viele Experten als Startpunkt der modernen SEO.

Als das Jahr 2000 näher rückte, gab es in den Suchmaschinenergebnissen einen immer stärker werdenden Wettbewerb um Bannerwerbung. Zu diesem Zeitpunkt wurde Google AdWords, heute Google Ads, ins Leben gerufen. Von 2001 bis 2007 boten die SERPs eher simpel strukturierte Ergebnisse, bei denen die Ad-Relevanz sowie die Optionen zur Ausrichtung jener stetig zunahmen. Da immer mehr Informationen verarbeitet werden mussten, reagierte Google Ende des Jahrzehnts und bot nach und nach weitere Funktionen, die es dem Nutzer ermöglichten, Seiten besser einschätzen zu können oder passende Informationen sogar direkt in den SERPs zu finden, ohne die Suchmaschine verlassen zu müssen. Diese Ausrichtung wird sich vermutlich zukünftig weiter ausprägen. Es ist also schon jetzt absolut wichtig, auch SEO zu berücksichtigen, die sich auf die SERPs an sich bezieht.

Keyword Placement vs. Keyword-Dichte

Von 2003 bis 2011 kämpfte der Google-Algorithmus fortwährend gegen das sogenannte Keyword Stuffing, also die Verwendung unverhältnismäßig vieler Schlüsselwörter auf engstem Content-Raum. Wie bereits angesprochen, lag die Hochzeit derartiger Praktiken in den frühen 2000er Jahren – erst mit Panda gingen diese allmählich zurück. Heute sind Keywords immer noch ein essenzieller Teil der der Suchmaschinenoptimierung und werden es auch bleiben. Es geht dabei jedoch nicht mehr vornehmlich um eine möglichst hohe Dichte, sondern um die richtige, kontextrelevante Platzierung.

Der Untergang der Spam Backlinks

Backlinks zählen nach wie vor zu den wichtigsten Ranking-Faktoren überhaupt. In den vergangenen Jahren erfolgte jedoch eine drastische Entwicklung bei der Bewertung jener – weg von Quantität, hin zur Qualität. Zu den Anfangszeiten von Google war es in der Suchmaschinenoptimierung gang und gäbe, massenweise Links zu kaufen und das Ranking somit auf recht simple Weise zu erhöhen. Google waren diese Praktiken schnell ein Dorn im Auge und man begann bereits Anfang der 2000er Jahre intensiv dagegen anzuarbeiten. Der große Erfolg kam mit dem Penguin Update 2012. Nun wurden Websites, die Spam Backlinks verwendeten, massiv abgestraft. Seitdem (und wohl auch zukünftig) gilt es vor allem kontextrelevante Backlinks zu erhalten bzw. zu platzieren.

Mobile First

Aufgrund der – seit dem Siegeszug der Smartphones Anfang der 2010er Jahre – kontinuierlichen Verlagerung der Webzugriffe vom Desktop zu Handys und Tablets, berücksichtigt Google schon seit einiger Zeit ausschließlich die Mobilversionen von Websites für seine Bewertung. Im Jahr 2015 übertrafen die mobilen Anfragen erstmals offiziell die Desktop-Suchen. Spätestens zu diesem Zeitpunkt war klar, dass die Mobilfähigkeit von Webseiten innerhalb der SEO stark an Relevanz gewinnen wird. Der Faktor Mobile nimmt vermutlich auch zukünftig eine zentrale Stellung ein. Das zeigt sich unter anderem an den stetigen Entwicklungen in diesem Bereich, zu denen übrigens auch die Stärkung des Page Speeds innerhalb der Ranking-Faktoren zählt. Vermutlich wird Voice Search diesbezüglich in naher Zukunft ebenfalls einen enormen Push erhalten.

Die Gewichtung der Website-Sicherheit

Bereits 2014 sprach man den gerade aktualisierten Google-Algorithmen eine Priorisierung von HTTPS-Websites zu. Seitdem nimmt die Datensicherheit scheinbar eine zunehmend wichtigere Rolle beim Ranking ein. Google und die SEO haben – nicht zuletzt infolge der zahlreichen Datenskandale der letzten Jahre – erkannt, dass Sicherheit Vertrauen schafft und dieses sich wiederum stark auf die User Experience auswirkt. Die zunehmenden Möglichkeiten im Web werden zukünftig vermutlich immer wieder neue Gefahren mit sich bringen, die Google und damit die Suchmaschinenoptimierung berücksichtigen muss.