Am 17. Oktober 2014 erfolgte das nunmehr dritte große Penguin Update von Google. Wer als Betreiber einer Website weiterhin ein gutes Ranking in der Suchmaschine erreichen will, sollte seine Homepage entsprechend anpassen. In diesem Artikel erfährt man, was dieses neue Google Update genau mit sich bringt und was zukünftig mehr denn je zu beachten ist, damit Websites sich erfolgreich in der Suchmaschine platzieren können.

Hintergrund zu den Google Penguin Updates

Das Internet wächst immer schneller. Täglich erscheinen zahlreiche neue Inhalte im Web, die miteinander um ein gutes Ranking bei Google konkurrieren. Vor dem ersten Update der Suchmaschine führte dies oft dazu, dass Websites durch eine übertriebene Suchmaschinenoptimierung (so genanntes „Keyword Stuffing“) oder gekaufte Backlinks künstlich gepusht wurden. So kam es dazu, dass solche gepushten Webinhalte oftmals die vorderen Ränge in den Google Suchergebnissen belegten, während qualitativ hochwertige Websites möglicherweise auf die hinteren Plätze verdrängt wurden. Zudem war häufig veralteter Content auf den vorderen Plätzen zu finden.

Mit den Updates seines Algorithmus möchte Google sicherstellen, dass möglichst nur Inhalte von hoher Qualität vorne in den Suchergebnissen erscheinen. Dies hat Google zunächst mit dem Panda Update 2011 umgesetzt. Seitdem wurden zunehmend auch doppelte Inhalte abgestraft, zumal diese oft im Verdacht standen, die Suchmaschinen zu manipulieren. Eine Abstrafung durch die Suchmaschine besteht darin, dass die betreffende Seite in deren Ranking herabgestuft wird. Sie wird somit im Web weniger sichtbar. Wenn eine Seite von Google als Spam eingestuft wird, ist es im schlimmsten Fall auch möglich, dass diese komplett aus dem Suchindex entfernt wird. Unter Duplicate Content versteht man nicht nur bewusst von anderen Seiten kopierte Inhalte. Doppelter Content kann auch unbeabsichtigt innerhalb einer Homepage entstehen, beispielsweise, wenn ein Text über verschiedene Links aufrufbar ist. Beim darauf folgenden Google Update „Freshness“ im November 2011 ging es darum, dass die Aktualität einer Website stärker in den Suchergebnissen berücksichtigt werden sollte. Diese Änderung betraf damals immerhin 35 Prozent der weltweiten Suchanfragen.

Das erste große Penguin Update wurde am 24. April 2012 durchgeführt. Dabei wurden die überoptimierten Internetseiten und solche mit unnatürlichen Links von Google abgestraft. Unnatürliche oder künstliche Links sind zum Beispiel Werbelinks. Um eine etwaige Abstrafung zu vermeiden, sollten alle Links, die als unnatürlich eingestuft werden könnten, im Quelltext vorsichtshalber mit rel=“nofollow“ gekennzeichnet werden. Die mit diesem Nofollow-Attribut versehenen Links werden von Google nicht bei der Berechnung der Linkpopularität berücksichtigt. Je 3 Prozent der englischsprachigen Websites und Internetseiten auf Deutsch, Chinesisch und Arabisch waren von Penguin 1.0 betroffen. Beim Penguin 2.0 Update, das am 22. Mai 2013 folgte, waren es nur noch 2,3 Prozent der US-Websites, was wohl darauf hindeutet, dass bis dahin schon immer mehr Internetseiten an die neuen Bedingungen angepasst worden waren. Die meist kommerziellen deutschen Websites, welche die Anpassung versäumten, büßten nach dem zweiten Penguin Update ihre Sichtbarkeit im Web erheblich ein – und zwar zwischen 30 und über 60 Prozent.

Penguin 3.0 – Was bedeutet das neue Update von Google konkret?

Mit dem neuen Google Penguin Update gilt es weiterhin auf die oben genannten Aspekte zu achten, die bereits im Verlauf der vorigen Updates zu so mancher Abstrafung von Google führte. Wer die notwendigen qualitativen Anpassungen auf seiner Homepage bis jetzt noch nicht vorgenommen hat, braucht sich nicht über die plötzlichen Einbrüche in der Besucherstatistik der betreffenden Website zu wundern, die mit einer Herabstufung im Ranking verbunden sind. Zusätzlich zu den bisherigen Aspekten könnte es in Zukunft sein, dass Google übermäßigen Linkspam in sozialen Netzwerken abstraft.

Darauf sollten Betreiber von Websites zusammenfassend achten, um eine Herabstufung der Seiten durch Google zu vermeiden:

  • Natürliche Backlinks (Pengiun sichere SEO): Links sollten thematisch passend gesetzt werden und auf interessante Seiten mit weiterführenden Informationen zum Thema verweisen. Weniger gute Links auf einer inhaltlich fundierten Seite sind besser als viele irrelevante Links. Alle Linkziele sollten immer eindeutig erkennbar sein. Als unnatürlich werden Links zu Werbeseiten gewertet oder auch mehrere Links ohne Mehrwert, die zu ein- und derselben Internetseite führen. Des Weiteren sollten Linkpostings in den sozialen Netzwerken zukünftig noch mehr mit Bedacht erfolgen, also zum Beispiel nicht innerhalb einer kurzen Zeitspanne zu häufig wiederholt werden. Stattdessen ist es ratsamer, darauf zu bauen, dass guter Content auf natürliche Weise von anderen empfohlen (verlinkt) wird.
  • Unique Content (Panda sichere SEO): Eine Website sollte idealerweise weder internen noch externen Duplicate Content enthalten. Zudem sollte jede Seite einen inhaltlichen Mehrwert bieten und vernünftig, das heißt auch userfreundlich, strukturiert sein. Auch eine korrekte Rechtschreibung und Grammatik könnten in Zukunft verstärkt Kriterien für eine ein gutes Ranking bei Google sein. Schon jetzt kann die Suchmaschine eine korrekte Rechtschreibung erkennen. Ein einziger Rechtschreibfehler, der beim Redigieren eines Online-Textes übersehen wurde, wird zwar vielleicht noch nicht das Ranking beeinflussen. Wenn jedoch eine Internetseite voller solcher Fehler steckt, spricht dies nicht unbedingt für Qualität. Es besteht die Gefahr, dass Google eine so präsentierte Website abwertet.
  • SEO:Unnötiges Keyword Stuffing ist zu vermeiden. Die Keyworddichte sollte daher keineswegs mehr als ca. 4 Prozent des jeweiligen Textes betragen. Eine gute Lesbarkeit ist bei einem Online-Text wichtiger als die Menge der Keywords. Die wichtigsten Stichworte sollten im Titel, der Metadescription, den Zwischenüberschriften und ein paar Mal im Text verwendet werden. Für eine ausreichende Optimierung ist es jedoch nicht nötig, Keywords oder Keywordphrasen übertrieben oft zu wiederholen. Zudem erkennt Google die Suchbegriffe heutzutage auch, wenn ihre Reihenfolge richtig variiert wird oder in einem grammatisch korrekten Satz mehrere Stoppwörter die Keywords voneinander trennen.

Für die Analyse von Websites in Hinblick auf die On-Page- und Off-Page-Optimierung sind spezielle SEO Tools meist aufschlussreich. Auch zur Ermittlung der Keyworddichte eines Textes gibt es kostenlose Online-Tools, bei denen man nach Eingabe des Textes sofort das Ergebnis erhält. Auf ein sauberes Linkprofil sollte man kontinuierlich und somit auch jedes Mal, wenn ein neuer Content veröffentlicht wird, achten. Entsprechende Links, die nicht von Google berücksichtigt werden sollen und sonst womöglich fälschlicherweise als Spam gewertet werden könnten, sollten daher stets mit einem Nofollow-Attribut versehen werden. Wer all diese genannten Punkte bei seinen Homepages beherzigt, braucht sich auch vor dem neuesten Google Update, Penguin 3.0, nicht zu fürchten.