„Googeln“, das ist mittlerweile ein deutsches Wort. Seit 2004 steht es im Duden. Wer googelt, der füttert eine Suchmaschine mit einem Begriff, nach dem sie das Internet durchforsten soll. Annähernd 95 Prozent aller Internet-Suchen in Deutschland landen beim Software-Riesen aus Kalifornien, dessen Name nicht nur in Deutschland zum Synonym für seine Branche geworden ist.

Die frühen Suchmaschinen suchten stumpf nach Stichwörtern

Jede Suchmaschine will ihrem Nutzer die besten, die relevantesten Ergebnisse zu seinem Suchbegriff liefern. Das war schon vor Google so. Die frühen Suchmaschinen durchforsteten das Netz stumpf nach Stichwörtern. Vor 1998 war niemand darauf gekommen, es so zu machen wie Larry Page und Sergey Brin, die beiden Google-Gründer. Deren Ansatz war, dass nicht die Häufigkeit bestimmter Begriffe auf einer Seite deren Relevanz bestimmen sollte, sondern die Zahl der Links zu dieser Seite.

Logisch eigentlich: Wer eine Seite verlinkt, der empfiehlt sie. Und je mehr Leute eine Seite empfehlen, desto höher die Wahrscheinlichkeit, dass diese Seite gut ist. Das ist die Idee der „PageRank“-Technologie (nach Larry Page), die sich die beiden Jung-Doktoren 1998 patentieren ließen. PageRank ist bis heute das Herz von Google.

Google erfand die Internet-Suche neu, war aber leicht auszutricksen

Die Methode funktionierte. Google lieferte bessere Ergebnisse als die Konkurrenz und wuchs rasant. Schon im Jahr 2000 war Google mit einer Milliarde registrierter Webseiten die größte Suchmaschine der Welt, verfügbar in 15 Sprachen. Seinen Suchalgorithmus hat das Unternehmen seitdem ständig verfeinert, um die Suchergebnisse zu verbessern – und um nicht mehr so leicht auszutricksen zu sein. Denn so brillant die PageRank-Idee auch war, sie ließ sich leicht aushebeln: Man stelle einfach tausende Seiten ins Netz, verlinke sie untereinander, und schon witterte das Ur-Google Relevanz, wo keine war. Das heutige Google durchschaut solche Versuche nicht nur, es straft sie auch ab, indem es die Seiten ans Ende seiner Ergebnislisten verbannt.

Die Geschichte von Google ist auch die Geschichte eines Hase- und Igel-Spiels. Auf der einen Seite die Google-Entwickler, die die Kriterien, um eine Internetseite zu bewerten, immer weiter verfeinerten, um ihren Nutzern die bestmöglichen Suchergebnisse zu liefern, und auf der anderen die Trickser, die nach Lücken im System suchen, um auch wenig relevante Seiten auf obere Ränge hieven zu können.

Guter Inhalt soll die Basis sein für eine gute Bewertung

Google sagt über Google, dass guter Inhalt, guter „Content“, die beste Methode ist, um hoch zu „ranken“. Aber ganz so einfach ist es nicht. In der jüngeren Vergangenheit haben einige Google-Versuche, die Spreu vom Weizen zu trennen, auch dazu geführt, dass beliebte Seiten mit bestem Ruf plötzlich nicht mehr oben standen. Insofern ist guter Inhalt zweifelsfrei die Basis für eine gute Google-Platzierung, aber außerdem sollte die Seite von jemanden gemacht werden, der weiß, was Google mag und was nicht.

Google durchsucht nicht das Netz, sondern seine Datenbanken

Um seinen Datenbestand dem Wachstum und der Veränderung des Internets anzupassen, lässt Google rund um die Uhr seine „Googlebots“ das Netz durchsuchen. Was der Roboter findet, das landet in Datenbanken mit Milliarden Internetseiten. Wer nun in seine Google-Suchmaske einen Begriff eingibt, der bedient damit eine hochkomplexe Software, die auf diese Datenbanken zugreift. Google durchsucht nicht das Netz, so wie es sich im Moment darstellt, sondern so, wie es seine Googlebots zuletzt in den Datenbanken abgelegt haben. Seinen Datenbestand aktualisiert Google abhängig von der Beliebtheit der Seite. Wer oft besucht wird, den besucht auch der Googlebot oft. Bei großen Seiten ist es nicht ungewöhnlich, dass Google stündlich vorbeischaut.

Was seinerzeit als genial-einfacher PageRank-Algorithmus begann, ist mittlerweile ein Geflecht von hunderten miteinander verknüpften Kriterien, nach denen Google Internetseiten bewertet. Viele Grundzüge des Google-Bewertungsschemas sind bekannt, die Details nicht. Das Google-Geheimnis wird oft mit dem Coca-Cola-Rezept verglichen: Dass die Limonade vor allem aus Wasser und Zucker besteht, weiß jeder, aber das genaue Rezept ist unbekannt. Ebenso ist es bei Google: PageRank ist und bleibt die Basis, aber was außerdem zählt und wie es gewichtet wird, das weiß im Detail kaum jemand.

Früher zählte nur die Zahl der Links auf eine Seite, heute zählt deren Qualität

PageRank ist seit der ersten Google-Stunde das zentrale Element, aber seinen PageRank-Algorithmus hat Google dahingehend modifiziert, dass er nicht mehr nur die Links zu einer Seite zählt, sondern auch deren Qualität bewertet. So genannte qualifizierte Links von themenverwandten Seiten bewertet die Suchmaschine höher als Links von Seiten, die von einer gänzlich anders ausgerichteten Seite kommen. Dieses Prinzip haben unseriöse Seitenbetreiber auszuhebeln versucht, indem sie so genannte Linkfarmen ins Netz stellten: tausende mit Pseudo-Inhalt gefüllte, untereinander verlinkte Webseiten sollten den PageRank-Algorithmus in die Irre führen.

Das wiederum veranlasste Google zu größeren, viel diskutierten Updates, die unter den Namen „Pinguin“ (Update 2012) oder „Panda“ (Update 2013) den Link-Spam enttarnen und gar nicht erst in den Index lassen sollten. Das funktionierte zwar – führte aber auch dazu, dass plötzlich andere, sehr wohl relevante Seiten auch nicht mehr auf den angestammten oberen Plätzen zu finden waren.

Google mag Text und Twitter

Der Titel der Webseite ist ein Faktor, nach dem Google bewertet, ein weiterer ist Text. Eine übersichtliche, sauber gebaute Seite mit viel Text wird Google tendenziell höher einschätzen als eine Seite mit vielen Bildern und wenig Text. Allerdings hat es Google über die Jahre immer besser gelernt, guten von schlechtem Text zu unterscheiden. Wer seine Seiten nur mit „Keywords“ vollstopft anstatt mit substanziellem Inhalt, der wird dafür eher nicht belohnt. „Qualitativer Inhalt und per Link demonstriertes Vertrauen anderer in die Seite“, das soll nach dem Willen der Google-Entwickler ihre Software einschätzen und bewerten können.

In den vergangenen Jahren hat Google dem Geschehen in den sozialen Medien mehr und mehr Bedeutung eingeräumt. Wer auf seiner Facebook-Seite auf eine Webseite verlinkt, der tut das in der Regel, weil ihm diese Seite gefällt, weil er ihr vertraut und den Inhalt mit anderen teilen möchte. So wie das Unternehmen versucht, das Vertrauen anderer in eine Seite in den PageRank-Algorithmus einzubauen, so zieht es zunehmend diese Zeichen des Vertrauens aus Facebook, Twitter & Co. für die Bewertung einer Seite heran.

Wahrheits-Check per Fakten-Datenbank

Nach aktuellen Berichten könnte schon bald ein neues Kapitel der Seitenbewertung beginnen: Google testet ein System, das automatisch den Wahrheitsgehalt einer Seite prüft – auf Basis einer riesigen Faktendatenbank, die mit 2,8 Millionen Informationen gefüttert ist. Sollte Google diese Bewertungsmethode (KBT, Knowledge Based Trust) tatsächlich implementieren, wäre das ein Schritt in eine ganz neue Richtung: Erstmals würde die Software dann nicht nur aufgrund externer Faktoren eine Seite bewerten, sondern sie würde selbst ein Urteil fällen. Für Klatsch- und Tratsch-Seiten etwa könnte das einen Absturz zur Folge haben, für wenig populäre, dafür substanzhaltige Experten-Seiten einen Aufstieg. Derzeit testen die Experten in Kalifornien, wie sich die Ergebnisse ihrer traditionellen Suche von denen einer KBT-gestützten Suche unterscheiden. Mehr Informationen hierzu finden Sie hier: Wahrheitsgehalt & Fakten zukünftig als Rankingfaktor?