Der Marktführer Google weiß alles, sieht alles und nur mit seinem Segen wird ein Internetauftritt von Erfolg gekrönt sein. Je weiter oben Google eine Webpräsenz in den Suchergebnissen zu bestimmten Keywords einstuft, desto eher werden potenzielle User und Kunden die Seite finden und öffnen. Die Einstufung einer Website in den Google Suchergebnissen hat deshalb besonders für Unternehmen und Freiberufler einen unersetzlichen Wert hinsichtlich der eigenen Popularität und Reichweite, kurzum: hinsichtlich der Unternehmenserfolge. Suchmaschinenoptimierung boomt aus diesem Grund. SEO-Agenturen werden gegen gutes Geld damit beauftragt, den höchst möglichen Rank für eine Internetseite herauszuholen. Professionelle Strategien der Onpage- und Offpageoptimierung sollen dafür sorgen, dass Internetauftritte ein höheres Google Ranking erhalten. SEO ist mittlerweile eine eigene Wissenschaft, mit der sich bei Weitem nicht jeder Websitebetreiber genügend auskennt, um Erfolge zu erzielen. Google will dem User auf der ersten Seite seiner Suchergebnisse logischerweise nur Inhalte bieten, die seinen Bedürfnissen qualitativ gerecht werden. Da die Suchmaschine noch immer kein Mensch, sondern eine Maschine ist, verwendet der Marktführer daher ein ganzes Netzwerk aus maschinell überprüfbaren Einzelfaktoren zur Qualitätsprüfung und Einstufung, die nicht einmal professionellen Agenturen ausnahmslos bekannt sind. Der Algorithmus von Google wird kontinuierlich verfeinert, um die Relevanz der Milliarden von Internetseiten im World Wide Web immer besser einschätzen zu können und nur Seiten mit hoher Relevanz auf den vorderen Plätzen anzuzeigen. Die genauen Ranking-Faktoren und das Verhältnis, mit dem Google sie zur Einstufung verwendet sind bis heute ein streng gehütetes Geheimnis. Bei On- und Offpageoptimierung bleibt einem aus diesem Grund bislang nichts anders übrig, als sich an den wenigen Punkten zu orientieren, die für das Ranking nach offiziellen Angaben besonders hohe, wenn auch nicht näher definierte Relevanz haben. Dazu zählen neben einem bestimmten Text-Bild-Verhältnis vor allem die Verteilungen der Keywords und die Verlinkung.

Keywords sichern die Themenrelevanz, Backlinks die Qualität

Onpageoptimierungen finden auf der eigenen Seite statt. Zu den bekanntesten zählt sowohl eine umsichtige Keywordanalyse, als auch eine Verwendung dieser Keywords nach den Parametern, die Google für eine angenehme Lesestruktur vorgibt. Das Hauptkeyword einer Seite sollte zum Beispiel in Überschriften sowie in der Metadescription und dem ersten Drittel des Textes auftauchen. Ist es zu präsent, wird auch das von Google aber abgestraft. Dasselbe gilt für Redundanzen im Text, die dem Leser keinen Mehrwert bieten. Auch die Textlänge und seine Übersichtlichkeit spielen bei der Onpageoptimierung eine gewisse Rolle. Die Offpageoptimierung besteht dagegen aus Maßnahmen außerhalb der eigenen Seite. Das sind vor allem Linkbuilding-Maßnahmen. Websites, die von anderen Webpräsenzen verlinkt werden, sind bei Google demnach beliebter als solche ohne diese sogenannten Backlinks. Verlinkungen sind für den Marktführer nämlich ein Zeichen für die inhaltliche Qualität einer Internetseite. Der Betreiber einer Website verweist auf seiner eigenen Seite nur auf solche externen Inhalte, die er seinen Usern weiterempfehlen kann, so die Grundannahme hinter Backlinks als Ranking-Faktor. Je wertvoller Google wiederum die Quelle eines Links beurteilt, umso wertvoller auch der jeweilige Link. Verlinkungen der eigenen Seite auf hochfrequentierten Seiten, die von der Suchmaschine als qualitativ beurteilt werden, sorgen so für eine höhere Einstufung. Um Manipulation durch Linkkauf auszuschließen, sollten aber nicht ausschließlich hoch besuchte Seiten auf die eigene verlinken, denn das wirkt verdächtig. Ebenso verdächtig wirkt ein plötzlicher Anstieg der Backlinks. Liegt der Eindruck von wenig organischem Wachstum vor, straft der Marktführer auch das in der Regel durch Rangverluste ab. Daneben spielt für das Linkbuilding auch die Themenverwandtschaft der verweisenden Seiten eine Rolle. Eine externe Verlinkung ist so nur dann wirklich relevant für das Ranking, wenn beide Seiten einem übergeordneten Themengebiet zugeordnet werden können. Auch die Art und Weise, wie die jeweiligen Websites konkret auf einen anderen Internetauftritt hinweisen, spielt für die Rankingrelevanz von Backlinks eine Rolle. Links im Footer oder Sidebar sind als Backlinks zum Beispiel nicht so relevant, wie solche, die im Haupttext unterkommen.

Social Signals als Inhaltsempfehlungen und Google Ratingfaktor?

Seit einiger Zeit kommt neben Onpageoptimierung und Backlinking auch dem Social Linkbuilding eine gewisse Rolle hinsichtlich des Google Ratings zu. Soziale Netzwerke wie Facebook und Twitter sind aus der Gegenwart kaum mehr wegzudenken und ermöglichen dem Einzelnen, Webinhalte mit seinen Freunden zu teilen. Empfehlungen durch Backlinks können nur von Websitebetreibern gegeben werden. Social Links stehen dagegen jedem offen. Auch die soziale Interaktion auf diese Links hin wird von Suchmaschinen bemerkt. Retweets auf Twitter oder Likes und Shares, sowie Kommentare auf Facebook zeigen Google, dass ein Inhalt auf Interesse gestoßen ist. Diese sogenannten Social Signs machen Social Links für Suchmaschinen erst interessant. Da nichts davon eine eigene Website voraussetzt, wird so der breiten Masse die Weiterempfehlung von Inhalten ermöglicht. Daher nimmt Google auch diese Parameter mittlerweile zur Beurteilung von Seitenqualität unter die Lupe. Facebook-Links mit vielen Shares, Likes oder Kommentaren verbessern aus diesem Grund zum Beispiel die Reputation eines Internetauftritts bei der Suchmaschine und werden sich in absehbarer Zeit vermutlich ebenso drastisch auf das Ranking auswirken, wie es aktuell noch Backlinks tun. Trotz dieser und ähnlicher Rating-Faktoren fällt dem Algorithmus von Google die zuverlässige Beurteilung von Seitenqualität aber auch heute noch schwer, denn so gut wie alle bisher bekannten Parameter lassen den Betreibern von Websites letztendlich Raum für Betrügereien oder zumindest Manipulation. Backlinks lassen sich zum Beispiel gegen gutes Geld kaufen, was ihre Aussagekraft verfälscht. Auf dieselbe Weise lassen sich auch Interaktionen auf sozialen Netzwerken künstlich in Gang setzen. Die für das Ranking relevante, optimale Keywordverteilung sagt wiederum nicht unbedingt etwas über den tatsächlichen Mehrwert aus, den User aus den Texten einer Seite ziehen. Auch Google selbst weiß längst, dass diese und andere Probleme ein optimales Ranking beeinträchtigen.
Aus diesen Gründen bemüht sich Google unentwegt um eine Verfeinerung seiner Ranking-Faktoren und versucht sich regelmäßig an der Einführung von neuen Strategien, die vor Manipulation und Betrug noch sicherer sind, als die bislang verfolgten. In absehbarer Zeit soll so eine tatsächlich zuverlässige Bewertung von Webinhalten möglich werden. Eine solche Strategie ist 2015 die Verifizierung von Wahrheitsgehalt. Der Marktführer will mit einem neu ausgearbeiteten Algorithmus fortan die Wahrhaftigkeit von einzelnen Inhalten einschätzen können, um den Wahrheitsgesamtgehalt fortan als betrugssicheren Ranking-Faktor zu verwenden.

Fakten, Fakten, Fakten im Google Knowledge Graph

Wer Google nutzt, sucht zuverlässige Informationen zu einem konkreten Thema. Nur wahre Informationen helfen Usern auf dieser Suche auch weiter. Wenn die ersten Seiten der Google-Suchergebnisse vorwiegend Informationen beinhalten würden, deren Wahrheitsgehalt in der Luft hängt, so würde sich die Beliebtheit der Suchmaschine in kürzester Zeit erledigen. Hoch gerankte Seiten müssen dementsprechend wahrhaftige Informationen enthalten, damit das allgemeine Vertrauen in die Google-Suche auch auf lange Frist Bestand haben wird. Aber wie soll eine Maschine wie Google die Inhalte des World Wide Web auf Wahrheitsgehalt überprüfen können? Über diese Frage haben sich die Entwickler in der letzten Zeit einschlägige Gedanken gemacht. In den vergangenen Jahren hat sich der Marktführer um den maschinellen Abgleich von Inhalten mit denen anderer Websites bemüht. Sämtliche Fakten wurden dazu aus den Seiten extrahiert und zur Verifizierung mit den Inhalten anderer Websites verglichen. Ursprünglich war diese Verifizierung von Fakten dazu gedacht, Googles Knowledge Graph zu verfeinern. Dieser Knowledge Graph entspricht der faktischen Kurzzusammenfassung, die Google für recherchefaule User je über den eigentlichen Suchergebnissen zu einem bestimmten Keyword bereitstellt. Nutzer mussten sich dank des Knowledge Graphen nicht mehr durch etliche Links zum Thema klicken, sondern erhielten die wichtigsten Informationen unverzüglich auf einen Blick. Dank des inhaltlichen Abgleichs konnte der Marktführer sicherstellen, dass im Knowledge Graph nur weit verbreitete und damit vermutlich wahrheitsgemäße Informationen enthalten waren. Was die Suchmaschine ursprünglich für die eigene Aufbereitung von Informationen im Graphen eingesetzt hat, soll jetzt auch als zusätzlicher Rating-Faktor in den Algorithmus eingehen. Das dazu entwickelte System wurde unter dem Namen “Knowledge Based Trust” vorgestellt und soll Google fortan zuverlässigere Einschätzungen hinsichtlich Qualität und Mehrwert einer Website abgeben lassen.

„Knowledge Based Trust“ führt Wahrheitsgehalt als Google-Ranking-Faktor ein

Zur Verifizierung von Fakten extrahieren die Forscher Googles für „Knowledge Based Trust“ die Informationen einer Internetseite und vergleichen die so gewonnenen Daten mit den Einträgen der eigenen Datenbank. Diese Datenbank enthält aktuell annähernd 3 Milliarden Fakten aus rund 120 Millionen verschiedenen Quellen. Je nachdem, wie viele der extrahierten Daten sich mit einem Blick auf diese umfangreiche Datenbank widerlegen und wie viele sich verifizieren lassen, fällt der gesamte Wahrheitsgehalt der überprüften Webseite aus. Die Internetauftritte mit den meisten wahren Daten sollen in den Suchergebnissen zukünftig deutlich weiter oben erscheinen, als solche mit weniger verifizierbaren Fakten. Da gerade Backlinks Google bisher als ein wichtiger Ranking-Faktor gedient haben, war die Rangvergabe bislang vorrangig von Parametern außerhalb der einzelnen Seiten geprägt. Über das neue „Knowledge Based Trust“-System wird für einzelne Websites neben der Beurteilung von „externen Signalen“ wie Backlinks, auch eine „interne“ Beurteilung möglich. Erste Tests des neuen Systems sollen bereits stattgefunden haben. Diese synthetischen Tests erreichten die Öffentlichkeit als ein Bericht, der mit dem bisherigen Google-Algorithmus verglichen wurde. Dabei stellte sich heraus, dass zwischen der Zahl der Backlinks und dem Wahrheitsgehalt einer Website häufig ein Zusammenhang besteht. Trotzdem ließen sich auch einige Websites mit hohem Wahrheitsgehalt ausmachen, die über eine vergleichsweise geringe Zahl an Backlinks verfügten. Während diese Seiten im traditionellen Ranking-System von Google ein vergleichsweise niedriges Ranking erhalten hätten, würde das neue System ihre Vertrauenswürdigkeit fortan mit einem höheren Rank belohnen. Ein Zeitplan für die geplante Integration des Faktors „Wahrheitsgehalt“ ist bislang nicht bekannt gegeben worden. Einig ist man sich aber schon jetzt darüber, dass diese Integration sowohl das Ranking, als auch das Internet an sich nachhaltig verändern wird.

KBT könnte den allgemeinen Wahrheitsgehalt von Internetmedien verbessern

Googles “Knowledge Based Trust” könnte weitreichende Folgen haben. So können populäre Websites im Ranking plötzlich deutlich an Rang verlieren, denn Popularität und Wahrheitsgehalt hängen den bisherigen Tests zufolge nicht zwingend zusammen. Die Online-Welt ist daher in Aufruhr über die Frage, inwieweit das neue System die gegenwärtigen Pageranks tatsächlich verändern wird. Vor allem Gossip-Seiten könnten beispielsweise deutlich an Boden verlieren, wenn Google seine Pläne in großem Rahmen in die Tat umsetzt. Die synthetischen Tests des „Knowledge Based Trust“ ermittelten für die meisten Gossip-Seiten einen Wahrheitsgehalt von maximal 50 Prozent. Trotz einer derart geringen Zuverlässigkeit von übermittelten Fakten bewegten sich die entsprechenden Seiten im Ranking bisher aber auf den oberen Plätzen, da sie viele Backlinks, hohe Popularität und optimale Onpageaufbereitung aufwiesen. Das neue System würde das grundlegend ändern. Inwieweit sich Veränderungen einstellen werden, ist bislang allerdings Spekulation. Wie alle anderen Faktoren des traditionellen Systems bleiben auch Backlinks im neuen Verfahren als Rating-Faktoren bestehen, aber bisher bleibt unklar, in welchem Verhältnis die bisher verwendeten Parameter und der Wahrheitsgehalt hinsichtlich der Relevanz zukünftig stehen werden. Falls dem Faktor Wahrheitsgehalt im Verhältnis zu den anderen Faktoren ungleich hohe Relevanz eingeräumt wird, so könnte dieses neue System unter Umständen sogar die Natur des Internets im Allgemeinen verändern. Seit Internetmedien derart beliebt geworden sind, ist der generelle Wahrheitsgehalt medialer Informationen zurückgegangen. Über das Internet verbreiten sich sämtliche Informationen in Windeseile. So wie das auf wahre Informationen zutrifft, gilt es auch für falsche Informationen. Geschwindigkeit und Sekunden-genaue Aktualität stehen in der heutigen Zeit für Effizienz. Da Effizienz wiederum mit Unternehmenserfolgen assoziiert wird, reagieren die Betreiber von Websites auf neue Informationen im Netz in der Regel in Sekundenschnelle mit eigenen, redaktionellen Inhalten, die sie oft nicht weiter geprüft in ihr Angebot integrieren. Auch Fehlinformationen verbreiten sich gerade im Internet daher in kürzester Zeit. Googles „Knowledge Based Trust“ könnte diese rasante Verbreitung von Fehlinformationen wiederum regulieren. Wenn der Marktführer die Inhalte von Websites mit hoher Fehlerrate nicht mehr hoch einstufen würde, so würden andere redaktionelle Angebote die jeweiligen Fehlinformationen vielleicht nicht mehr übernehmen, weil sie sie gar nicht finden würden. Die generelle Vertrauenswürdigkeit von Internetinhalten könnte so vom Konzept „Knowledge Based Trust“ positiven Einfluss erfahren. Das würde vor allem einem zugutekommen: dem User, der sich auf recherchierte Informationen fortan wirklich verlassen könnte. Noch ist die Hoffnung auf ein zukünftig vertrauenswürdigeres Internet durch den neuen Rating-Faktor in der Schwebe. In absehbarer Zeit wird sich herausstellen, welche Relevanz der Marktführer dem Wahrheitsgehalt wirklich zugestehen wird. Im Laufe des Jahrs wird sich aber vielleicht schon abzeichnen, wohin die Neuerung die Betreiber von Websites und mit ihnen das gesamte Internet führen wird. Wer weiß: vielleicht wird Google mit der Einführung des KBT ja tatsächlich seiner Rolle als modernen Gottheit gerecht, die alles weiß und die immer lauter werdenden Gebete nach zuverlässigen Informationen und gerechteren Pageranks erhört.