Wie viele Mythen sind auch die meisten der hier zu behandelnden SEO Mythen Märchen aus uralten Zeiten. Das heißt, sie waren irgendwann in grauer Internetvorzeit vielleicht sogar einmal wahr und haben es irgendwie geschafft, sich bis heute als Legenden in vielen Köpfen festzusetzen. Dass sich die SEO-Zeiten so schnell ändern, hat einen einfachen Grund. Google wollte eigentlich schon immer dasselbe, nämlich Usern möglichst gute Suchergebnisse präsentieren – davon lebt Google letztlich! Nun kann aber weder Google noch sonst irgendeine Software einen Text inhaltlich verstehen oder gar bewerten. Man könnte es auch einfacher sagen: Google kann nicht lesen! Deswegen war und ist Google darauf angewiesen, die Qualität einer Website anhand von Daten zu bewerten, mit denen ein Algorithmus etwas anfangen kann. Das ist schwierig und ging anfangs regelmäßig schief. Aber Google ist lernfähig und robbt sich allmählich an das Ziel heran, mit ziemlich guter Treffsicherheit diejenigen Websites zu erkennen, die dem User wirklich einen Mehrwert bieten. Leider sind wir heute noch ein ganzes Stück von dem Idealzustand entfernt, der in etwa so beschrieben werden könnte: „Google erkennt eine wirklich gute Website von ganz allein und niemand muss sich mehr darum kümmern, wie Google das macht.“ Aber wir sind doch ein ganzes Stück näher dran, als die Verbreiter der SEO Mythen uns glauben machen wollen!

Der Mythos… der chancenlosen Kleinen

Zu den wohl wichtigsten SEO Mythen zählt die Vorstellung, dass sich SEO nur für große oder zumindest überregional tätige Unternehmen lohnt. Das Gegenteil ist der Fall! Regional tätige Unternehmen haben alle Chancen, sich im Wettbewerb mit den großen Anbietern zu behaupten. Dazu ist eine Fokussierung auf Suchanfragen mit regionalem Bezug erforderlich. Allerdings ist es mit einfachen Begriffskombinationen wie „Autohändler Köln“ nicht getan. Am Anfang der lokalen Suchmaschinenoptimierung steht immer die Analyse der von den Usern aus der Region tatsächlich in ihren Suchanfragen benutzen Begriffskombinationen. Je nach Branche können hier zum Beispiel auch Stadtteile oder sogar Straßennamen eine Rolle spielen. Chancen bieten auch mobile User, die Anbieter in der Nähe ihres aktuellen Standorts suchen.

Der Klassiker: Die Keyword-Dichte

Ganz am Anfang viel Google tatsächlich nichts bessere ein, als Keywords zu zählen. Wir relevant eine Website zum Thema „Waschmaschine“ war, wurde daran gemessen, wie oft das Wort „Waschmaschine“ vorkam. Google merkte schnell, dass es damit einen skurrilen Wettlauf in Gang gesetzt hatte, sich möglichst abenteuerliche Sätze auszudenken wie diesen: „Eine gute Waschmaschine unterscheidet sich von einer schlechten Waschmaschine durch die Verarbeitung der Waschmaschine und das für den Bau der Waschmaschine von dem Hersteller der Waschmaschine für die Waschmaschine verwendete Material.“ Das war sicher nicht das, wonach die User suchten! Als erste Korrekturmaßnahme verabschiedete sich Google von den Grundsatz „je öfter desto besser“ und definierte stattdessen eine ideale Keyword-Dichte, mit der zentrale Begriffe im Text vorkommen sollten. Es ist klar, was folgte: Nahezu alle Texte wiesen ungefähr die optimale Dichte auf! Inzwischen hat Google die Keyword-Dichte als Kriterium auch fallen lassen und greift stattdessen auf eine recht komplizierte mathematische Formel zurück, die als WDF*IDF bekannt geworden ist. Kern dieser Neuerung ist, sich auch anzuschauen, wie oft das jeweilige Keyword in andern Texten vorkommt. Außerdem wurde die Bedeutung der Häufigkeit des Auftretens des Keywords deutlich heruntergefahren. Im Ergebnis führt dies dazu, dass man Google zwar immer noch mittels Keywords einen Wink mit dem Zaunpfahl geben muss, worum es im Text eigentlich geht. Aber es ist nicht mehr so wichtig wie früher, mit welcher Häufigkeit diese Keywords auftauchen.

Backlinks und Pagerank

Zurück zur Frage, wie Google einen Text beurteilt, ohne ihn zu verstehen. Googles klassische Antwort war einfach: Wenn alle klatschen, muss es wohl gut sein! Genauer formuliert: Google machte sich auf die Suche nach Hinweisen, wie dem Rest der Welt eine Website gefällt. Als Google damit anfing, waren Social Media noch Science Fiction und auch die Beobachtung des Userverhaltens im Internet steckte noch in den Kinderschuhen. Da blieb nicht viel anderes übrig, als zu zählen, wie oft eine Website verlinkt wird. Die Idee dahinter war, dass man eine fremde Website wohl nur verlinkt, wenn man sie den Besuchern der eigenen Website empfehlen möchte. (Was, nebenbei bemerkt, eine fragliche Annahme ist. So gehören beispielsweise gefälschte medizinische Studien zu den am häufigsten verlinkten, weil jede Warnung den entsprechenden Link enthalten muss.) Als Google sich für Backlinks zu interessieren begann, wurde selbstverständlich das Linkbuilding zum festen Bestandteil der SEO. Schließlich garantierten viele Backlinks einen hohen Pagerank. Google war sich dieses Problems durchaus bewusst. Die Begeisterung für Backlinks hielt sich immer in Grenzen, aber es gab schlicht keinen anderen Weg, die Reaktionen Dritter auf eine Website zu messen. Das hat sich geändert. Längst werden Webinhalte nicht nur durch Links weitergegeben, sondern beispielsweise auch durch geteilte Inhalte in den Social Media. Außerdem kann Google heute aus dem Verhalten der Besucher einer Website Rückschlüsse über deren Bewertung der Seite extrahieren. Wie lange bleiben die Besucher auf der Website? Wie vielen internen Links folgen sie? Wie viel Zeit widmen sie den einzelnen Unterseiten? Diese so genannten User Signale sagen sehr viel mehr über die Qualität der Website aus als Backlinks und der daraus ermittelte Pagerank. Beides hat daher an Bedeutung verloren. Deswegen zählt im Umkehrschluss auch die Furcht zu den SEO Mythen, durch die Verlinkung einer anderen Website etwas von dem ach so kostbaren Page Rank zu verlieren.

Der schlimmste SEO Mythos: Google ist wichtiger als die User

Der schädlichste SEO Mythos ist wohl der, dass Userfreundlichkeit in Bezug auf die Suchmaschinenoptimierung nicht nur nichts einbringt, sondern sogar schädlich sein kann. Der oben erwähnte Keyword-Monster-Satz über die Waschmaschine deutet schon darauf hin, dass in der Vergangenheit die Frage „Soll die Website Usern gefallen oder Google?“ nicht ganz unberechtigt war. Die ebenfalls oben beschriebenen User Signale waren ein weiterer wichtiger Schritt, diesen Widerspruch aufzulösen. Inzwischen ist eine userfreundliche Programmierung der Seite sogar zum wichtigen SEO Merkmal geworden. Aktuell liegen Google hier besonders die mobilen User am Herzen. Das äußert sich zunächst darin, dass Google das Responsive Design zum Standard erklärt hat. Wer nicht mittels eines Responsive Designs für optimale Bedienbarkeit seiner Seite mit allen Endgeräten sorgt, wird zumindest bei Suchanfragen mit mobilen Endgeräten empfindlich abgestraft. Außerdem ist seit Neuestem auch die Geschwindigkeit einer Website ein SEO Kriterium – auch hier denkt Google zuerst an die mobilen User mit langsamen Internetverbindungen. Verpönt ist alles, was den Ladevorgang unnötig ausbremst. Dazu gehören nicht nur überflüssige Datenübertragungen, sondern beispielsweise auch zu viele interne Weiterleitungen (redirects).

Kein Mythos: Qualität zahlt sich aus

Wie schon erwähnt, ist eine Website mit hochwertigen Inhalten auch heute leider noch kein SEO-Selbstläufer. Ein kleines bisschen muss man sich schon noch herausputzen, wenn der Crawler von König Google zu Besuch kommt. Aber eine Website mit hochwertigen Inhalten und einer Programmierung auf dem neuesten Stand der Technik ist heute unabdingbare Voraussetzung für erfolgreiche SEO. Sehr wohl ein Mythos ist daher die Idee, man könne jede alte Website in den Trefferlisten von Google weit nach oben bringen, wenn man nur die neuesten SEO Tricks anwendet. Spätestens wenn die User diese veraltete Website erschreckt wieder wegklicken, ist der Traum von einer erfolgreichen SEO im Zeitalter der User Signale ausgeträumt. Man kann es auch böse formulieren: Es ist heute so schwierig, Google eine gute Website vorzugaukeln, dass es fast schon einfacher ist, eine gute Website zu machen!