Sieht man sich an, wie SEO 2015 größtenteils betrieben worden ist – nicht auf den Vorzeigeseiten, die als leuchtendes Beispiel herangezogen werden können, wenn es darum geht, wie SEO-Maßnahmen richtig umgesetzt werden, sondern im Großen und Ganzen – offenbaren sich einige Fehler, die 2016 dringend vermieden werden sollten. Die häufigsten werden im folgenden beleuchtet.

Content ist das größte Problem

„Content is King“ klingt heute wie eine abgedroschene Phrase, die jedoch einen wahren Kern hat, nämlich, dass neben klassischen Maßnahmen wie Linkbuilding hochwertige Inhalte immer wichtiger werden. Da die Erstellung von Inhalten im Vergleich jedoch deutlich aufwändiger und somit kostenintensiver ist, wird an dieser Stelle noch immer viel zu häufig gespart. Einerseits setzen viele Seiten also auf zu wenige Inhalte in Form von Texten, Bildern, Videos, Downloadinhalten und Co. bzw. auf zu wenig hochwertige Inhalte, andererseits geht ein Großteil des vorhandenen Contents oftmals an der Zielgruppe vorbei oder bietet kaum einen Mehrwert. Der Schlüssel zu erfolgreichem SEO 2016 liegt deshalb in einzigartigen, qualitativen Inhalten, die auf die eigene Zielgruppe zugeschnitten sind.

Fehlende Attribute bei Bildern

Dass keine professionelle Suchmaschinenoptimierung durchgeführt worden ist, macht sich acuh 2015 an vielen Feinheiten bemerkbar. Eine davon ist, dass bei Bildern keine „title“ und „alt“ Attribute genutzt werden, die Bilder zusätzlich beschreiben und so das Ranking verbessern können. Es gibt eine Vielzahl an Plugins für die gängigen Content Management Systeme, die auf das Fehlen dieser Attribute hinweist.

Keine Anpassung an mobile Endgeräte

Google hat seinen Algorithmus dahingehend verändert, dass das Vorhandensein bzw. Nichtvorhandensein von angepassten Versionen einer Website für mobile Endgeräte stärker berücksichtigt wird; Webmaster sind 2016 also gut beraten, ein responsives Design bereitzustellen, dass die Ansicht der Bildschirmgröße anpasst. Im vergangenen Jahr hat ein Großteil der Webmaster diesem Aspekt offensichtlich nicht allzu viel Aufmerksamkeit geschenkt zu haben: viele Seiten orientieren sich noch immer an der Darstellung auf dem Desktopcomputer oder Notebook. Moderne Content Management Systeme und qualitativ hochwertige Themes können – je nach Anforderung mit händischen Anpassungen – diesen Missstand vergleichsweise leicht ausgleichen.

Keine robots.txt

Die robots.txt ist zwar kein Wundermittel, bietet aber einiges an Optimierungspotential für die eigene Website bei relativ geringem Aufwand, man lässt sich hier also etwas entgehen, wenn man sie nicht annimmt. Trotzdem nutzen mehr als ein Drittel der Websites dieses Potential nicht und verpassen die Chance, das Crawlverhalten zu optimieren.

Betreiber wissen nicht, wie Social Media funktioniert

Noch immer nutzt der Großteil der Websites nicht das Potential, das modernes Social Media Marketing ihnen bieten könnte. Nur ungefähr ein Drittel der Seitenbetreiber verlinkt 2015 von ihrer Homepage auf die eigene Facebook Präsenz, bei anderen sozialen Netzwerken sind es entsprechend noch (deutlich) weniger. Was darüber hinaus die Aktivität auf sozialen Netzwerken angeht (die dort geteilten Artikel, die Anzahl an veröffentlichten, auch einzigartigen, Beiträgen, etc.), sieht es noch wesentlich schlechter aus, zu viele Facebook Seiten werden, nachdem sie einmal angelegt wurden, nicht weiter beachtet.

Fazit

2015 verschenken die meisten Websites noch immer Unmengen an Potential, was die Suchmaschinenoptimierung angeht. Die meisten Fehler lassen sich mit relativ wenig Aufwand beheben, etwa das Anlegen einer Robots Datei oder die Anpassung an mobile Geräte, bei einigen handelt es sich jedoch um ein grundsätzliches, tiefergehendes Problem, etwa bei Aktivität auf sozialen Netzwerken oder der Qualität/Quantität vorhandener Inhalte. Da die Möglichkeit für Laien, Websites zu erstellen, immer einfacher werden, dürfte sich daran auch künftig wenig ändern.