Onpage SEO – Suchmaschinenoptimierung für die eigene Seite

Onpage SEO hat den Zweck Inhalte einer Website für Suchmaschinen zugänglich zu machen und sicherzustellen, dass diese das Thema und die Keywords erkennen können. Onpage lässt sich in mehrere Bereiche aufteilen, deren Setup und schlussendlich Nutzen im Folgenden erklärt wird. Zunächst einmal eine Übersicht über die einzelnen Bereiche:

Basics

  • Domainname
  • URLs
  • Seitenarchitektur
  • Sitemap(s)
  • Keywords

Inhalt und Semantik

  • Meta-Tags
  • Überschriften
  • Texte
  • Bilder
  • Rich Snippets / Data-Highlighter

Technik

  • Duplicate Content vermeiden
  • Status-Codes aufgerufener Seiten
  • robots.txt
  • Performance

Basics

Domainname

Der Domainname sollte kurz, prägnant und passend zum Website-Thema sein. Hier dringend beachten, dass schon durch den Domainaufruf Duplicate Content entstehen kann. Ist eine Seite unter www.xxx.de, xxx.de, http://xxx.de und xxx.de/ erreichbar, ist man schön in die Duplicate Content-Falle getappt. Lösung: Bevorzugte Variante aussuchen und alle anderen auf diese weiterleiten.

URLs

Die URLs der Website sollte ebenfalls kurz und sprechend sein. Als Worttrenner immer „-“ verwenden. Dateiendung „.html“ oder einfach gar keine. Die Entscheidung, ob alle URLs im Root-Verzeichnis liegen (z.B. www.xxx.de/yyy-zzz) oder ob eine Verzeichnisstruktur verwendet wird (z.B. www.xxx.de/yyy/zzz) ist jedem selbst überlassen. Eine Verzeichnisstruktur hat den Vorteil, dass z.B. in den Google Webmaster Tools Verzeichnisse gesondert als Domain angelegt und damit ausgewertet werden können. Auf der anderen Seite ist eine Struktur, die sich komplett im Root-Verzeichnis abspielt, „näher an der Domain“. Es gilt als Ranking-Faktor, wenn das Keyword in der URL nahe an der Domain steht, allerdings ist der Einfluss sehr marginal.

Seitenarchitektur

Sämtliche Seiten der Website sollten mit so wenigen Klicks wie nur möglich erreichbar sein. Hierzu lohnt es sich ein Inhaltsverzeichnis anzulegen, dass auf der Startseite im Footer verlinkt werden kann und Links zu allen bestehenden Unterseiten enthält. Allgemein sollte das Layout der Seite nach Usability strukturiert sein: Header mit Bild und/oder Überschrift/Unternehmensbezeichnung, eine Navigation mit den wichtigsten Kategorien, Hauptteil mit dem entsprechenden Content und eventuell einer weiteren Navigation und schließlich der Footer. Je mehr interne Links auf einer Seite gesetzt werden, desto weniger Stärke wird an die verlinkte Seite weitergegeben, deshalb sollten nicht zu viele interne Links je Seite existieren.

Sitemap(s):

Sitemaps können im XML-Format im Root-Verzeichnis des Servers abgelegt und z.B. über die Google Webmaster Tools hochgeladen werden. In den Webmaster Tools erhält man dann eine Übersicht, wie viele URLs eingereicht und wie viele indexiert wurden. In einer XML-Sitemap kann man auch direkt alle Bilder zu einer URL angeben. Alternativ kann man auch eine gesonderte Sitemap für Bilder erstellen und hochladen. Es wird empfohlen, nicht mehr als 10.000 URLs pro Datei aufzuzählen. Hat die Website mehr als 10.000 URLs, sollten mehrere Dateien erstellt werden.

Keywords

Keywords sind für eine Website, die gut ranken soll, von höchster Wichtigkeit. Es gibt viele Möglichkeiten, Keywords zu finden: Die Suggest-Funktion von Google, „Verwandte Suchanfragen“ ganz unten auf der Google-Suchergebnisseite, das Google-Adwords-Tool „KeywordPlaner“, diverse Synonymfinder oder Seiten wie ubersuggest.org.

Zusammenfassung Basics:

  • Kurzen, prägnanten und zum Thema passenden Domainnamen wählen
  • Eine URL-Variante festlegen (z.B. https://www.xxx.de) und alle anderen Varianten (mit/ohne http/https, mit/ohne Backslash am Ende, mit/ohne www) auf die Hauptvariante weiterleiten
  • Für Unterseiten kurze, sprechende URLs mit „-“ als Worttrenner verwenden. Als Endung entweder „.html“ oder keine.
    – Dafür sorgen, dass sämtliche vorhandenen Unterseiten nach spätestens vier Klicks erreicht werden können (z.B. durch ein Inhaltsverzeichnis, das alle Seiten aufzählt).
  • User-freundlichen Seitenaufbau verwenden
  • XML-Sitemap erstellen und bei den Suchmaschinen einreichen
  • Vor der Erstellung von Inhalten eine umfangreiche Keyword-Recherche durchführen

Inhalt und Semantik

Meta-Tags

Der Title sollte maximal 70 Zeichen lang und einzigartig sein sowie das Keyword (möglichst weit vorne) enthalten. Auf xxx.de/yyy bietet sich als Title z.B. „YYY jetzt bei XXX bestellen“ an.

Die Meta-Description sollte maximal 140 Zeichen lang sein und den Kunden kurz über den Seiteninhalt informieren und zum Klicken animieren. Beispiel: „Hochwertige XXX-Produkte um ganz tolle Sachen zu machen finden Sie hier im YYY Online-Shop. Jetzt unsere große Auswahl entdecken“.

Der Meta-Robots-Tag kann verwendet werden, um den Crawlern bestimmte Seiten zu verbieten. Gibt man keinen Robots-Tag an zählt dies wie „index,follow“. Möchte man eine Seite nicht im Index haben gibt man „noindex,follow“ an.

rel=“canonical“ ist eine sehr gute Möglichkeit um Duplicate Content zu verhindern. Hierauf wird noch genauer unter „Technik“ „Duplicate Content (verhindern)“ eingegangen. Allgemein lässt sich aber sagen: Je größer die Website, desto mehr wird der Einsatz dieses Tags empfohlen.

Meta-Keywords sind veraltet und werden nicht mehr benötigt.

Überschriften

Jede Seite der Website hat genau eine h1-Überschrift. URL, Title und h1 sind die Träger des Hauptkeywords. Untergeordnete Überschriften können beliebig oft verwendet werden. Beispiel: URL: xxx.de/yyy, Title: yyy jetzt bei xxx bestellen, h1 yyy /h1, h2 yyy ohne Extras /h2, h2 yyy mit Extras /h2, h3 ein ganz besonderes Extra für yyy mit Extras /h3. Wichtig: Die Überschriften einer Seite sollten ebenfalls einzigartig sein, also auf der gesamten Website nur einmal vorkommen.

Texte

„Content ist King“. Inhalte, die den Usern einen Mehrwert bieten und zum Teilen und Weiterschicken verleiten sind das A und O jeder Website. Viralität, sprich Social-Shares, Likes etc., sorgt für Bekanntheit, mehr Besucher und damit auch für natürliche Backlinks. Jeder Text sollte einzigartig sein. Es empfiehlt sehr sich in Texten Aufzählungen zu verwenden. Auf Keyword-Dichte braucht in Texten eigentlich nicht geachtet zu werden. Durch das Schreiben eines hochwertigen Textes ergibt sich diese eigentlich von selbst. Wenn man dennoch darauf Wert legt, das Keyword geplant unterzubringen, kann man sich das Thema WDF*IDF genauer anzusehen.

Bilder

Da Crawler Bilder nicht „lesen“ können sind zwei Faktoren von elementarer Bedeutung: Das „alt“-Attribut und der Dateiname. Hat man zum Beispiel ein Bild, auf dem drei „y“ zu sehen sind, sollte die Datei yyy.jpg heißen und im „alt“-Attribut „yyy“ stehen. Somit kann klar identifiziert werden, was auf dem Bild zu sehen ist und das Bild erscheint zu einer Bilder-Suche nach „yyy“.

Rich Snippets / Data-Highlighter

Rich Snippets sind zusätzliche HTML-Attribute, mit denen man Suchmaschinen mitteilen kann, um was für eine Art von Inhalt es sich handelt. Ein Online-Shop kann z.B. sein Produktbild, den Namen, die Marke, Verfügbarkeit und den Preis markieren. Häufig werden solche Informationen dann schon direkt in den Suchergebnissen mit ausgegeben, was die Klickrate der User deutlich erhöhen kann.

Der Data-Highlighter ist ein Tool, mit dem man direkt bei Google die eigene Seite markieren kann. Vorteil: Einfach und schnell. Nachteil: Funktioniert nur bei Google, während Rich Snippets bei allen Suchmaschinen ankommen. Hier lohnt es sich definitiv, sich etwas tiefer einzuarbeiten.

Zusammenfassung Inhalt und Semantik:

      • Unique Titles pro Seite, Keyword soweit vorne wie möglich, maximal 70 Zeichen
      • Unique Meta-Descriptions mit einer max. 140 Zeichen langen Beschreibung des Inhalts sowie einer Call-To-Action, die den User zum Klicken animiert
      • Robots-Tag sollte immer auf index,follow stehen (oder gar nicht ausgegeben werden). „noindex,follow“ um einzelne Seiten auszuschließen. „noindex,nofollow“ ist nicht empfohlen.
      • Canonical-Verwendung bei größeren Websites empfohlen
      • Genau eine einzigartige h1-Überschrift pro Seite mit dem Hauptkeyword
      • Beliebig viele Überschriften niedrigerer Ordnung pro Seite
      • Texte sollten einzigartig und hochwertig sein sowie immer für den User geschrieben sein. Absätze mit p im Quellcode markieren und wenn möglich Aufzählungen verwenden.
      • Bilder immer mit einem alt-Attribut und einem sprechenden Dateinamen versehen. Die Verwendung von Bildern und Infografiken ist grundsätzlich immer empfohlen.
      • Rich-Snippets verwenden, wenn der Seiteninhalt dafür geeignet ist

Technik

Duplicate Content (verhindern)

Ist Duplicate Content unumgänglich, was sehr oft in Online-Shops vorkommt, z.B. wenn Artikelübersichten gefiltert werden, kann man entweder mit dem Robots-Tag arbeiten und – bis auf die Seite, die indexiert werden soll – alle Duplikate auf „noindex,follow“ setzen oder mit rel=„canonical“. Befindet man sich auf einer gefilterten Artikelansicht mit der URL xxx.de/yyy?farbe=rot, so möchte man diese Seite eigentlich nicht im Index haben, sondern auf die Hauptseite verweisen. Als Canonical würde man dann „xxx.de/yyy“ angeben. Mit dieser Methode können so gut wie alle Duplicate Content verursachenden Probleme (wie z.B. Filter, Paginierung, Session-IDs in URLs u.m.) behoben werden. Es gibt noch weitere Methoden, die Duplicate Content verhindern: rel=next und rel=prev für die Paginierung sowie rel=alternate mit hreflang-Attribut für Seiten, die es in mehreren Ländern (z.B. Österreich und Deutschland) gibt, um zwei Beispiele zu nennen.

Weiterführende Informationen: Canonical Tag – Duplicate Content verhindern

Status Codes aufgerufener/verlinkter Seiten

Für Weiterleitungen sollte stets der Status-Code 301 verwendet werden. Die zu Beginn erwähnten Weiterleitungen der unerwünschten Domainvarianten auf die erwünschte Domainvariante sollten als 301-Weiterleitungen eingerichtet werden. Der Code 404 zeigt an, dass eine aufgerufene Adresse auf dem Server nicht existiert, was nach Möglichkeit vermieden werden sollte.

Robots.txt

Sollen ganze Verzeichne für Bots gesperrt bleiben, kann dies mit einer robots.txt gelöst werden.

Performance

Die Performance einer Seite ist ein riesiges Thema. Erwähnung findet sie hier, weil sie der Haupteinfluss für das Nutzerverhalten auf der Seite ist. Dieses ist ein Ranking-Faktor: Wenn ein Nutzer über Google eine Seite besucht und diese sofort wieder verlässt, wird man im Ranking wohl kaum Verbesserungen erwarten können. Um ein paar Stichworte zu nennen: Bilderoptimierung, Caching, Minimizing, CSS-Sprites.

Zusammenfassung Technik:

  • Duplicate Content mit rel=canonical“, rel=next und rel=prev und rel=alternate verhindern
  • Weiterleitungen mit Code 301, 404-Fehler dringend beheben und verhindern
  • Zum Bot-Ausschluss ganzer Verzeichnisse eine robots.txt verwenden
  • Für besseres Nutzerverhalten auf die Seitenladezeit achten