Matt Cutts über die „Google Rater“
Im Google-WebmasterHelp-Kanal wurde heute ein interessantes Video veröffentlicht, dem ich einen eigenen Blogpost geben möchte. Matt Cutts spricht über die „Google Rater“ (engl. „rate“ heißt nicht „raten“, sondern „bewerten“ ;-)). Das Ganze hat viel mit der Frage zu tun, wie Google zu qualitativen Suchergebnissen kommt. Eine Frage, die mich hier im Blog schon mehrfach beschäftigt hat (siehe: Meine kleine Content-Farm – oder: was ist Qualität? oder Google sucht nach Content-Qualität – aber wie?). Matt erklärt, dass es zwei Arten der „human Rater“ gibt: die eine Gruppe gehört zum Google Webspam-Team, das Matt selber leitet . Diese „Quality Rater“ sind dazu da, Spam-Seiten, die durch den Algo geflutscht sind und sich in den vorderen Suchergebnissen tummeln, manuell herauszufischen und mit einer Penalty (Strafe) in den Suchergebnissen nach hinten zu verschieben.
In dem Video geht es aber um eine zweite Gruppe von „Ratern“: diejenigen, die Google helfen, um Algo-Veränderungen zu überprüfen (sog. „Search Quality Evaluation Team„, also „diejenigen, die die Qualität der Suchergebnisse überprüfen„). Diese Rater werden von Google für ihre Arbeit bezahlt. Matt spricht von „hunderten„.
Die Rater haben im Prinzip zwei Aufgaben: Zunächst einmal bewerten sie grundsätzlich Websites und halten diese Bewertungen fest. Immer wenn eine Algo-Änderung gemacht wird, überprüft man dann, ob dadurch mehr gut bewertete Seiten nach vorne kämen und gleichzeitig die schlecht bewerteten Seiten tatsächlich nach hinten wandern. Falls ja, ist das ein Signal, dass die Algo-Änderung gut war.
Die zweite Methode geht so: eine Gruppe von Technikern überlegt, wie man den Algorithmus verbessern könnte. Dafür bauen sie einen „Test-Algorithmus“, den sie dann intern (in so einer Art „Rater-Intranet“ tatsächlich anwenden. Die Rater sehen dann also diese neuen Suchergebnisse. Diese Ergebnisse werden dann von ihnen bewertet, und die Techniker – und / oder die Entscheider – ziehen dann ihre Erkenntnisse daraus.
Google arbeitet dafür dann mit dem A-B-Test Verfahren. Dafür werden den Ratern zwei Ergebnislisten angezeigt. Eine davon ist die ursprüngliche, die andere wurde mit dem veränderten Algo generiert. Die Rater bewerten dann die beiden Listen – allerdings ohne zu wissen, welche Liste alt und welche neu ist (sog. Blind-AB-Test). Wenn sich in dem Verfahren zeigt, dass die Rater mehrheitlich die neuen Ergebnisse besser finden, wird dass Ganze zu einem „live-Test„. Dabei wird der veränderte Algo für eine kleine Gruppe von Usern live sichtbar. Wie diese Gruppe zustande kommt, weiß ich nicht. Aber ich war selber mal in so einer „Live-Test-Gruppe – siehe Neues Feature in Google’s Bildersuche: Suchvorschläge mit Vorschau. Das war seinerzeit ganz schön verwirrend ;-)
Hier das Video, in dem Matt das Ganze noch mal erklärt (in Englisch):
Google Qualität ist Mehrheits-Mainstream (bzw. soll sein!)
Das Video bestätigt, was ich schon mehrfach angedeutet habe (und was sowieso logisch ist ;-)): Google kann Qualität nur aus quantitativen Signalen ermitteln. Überspitzt formuliert kann man auch sagen: Google-Qualität ist Mainstream. Wer sich um Suchmaschinenoptimierung bemüht, sollte das nie aus dem Auge verlieren. Die eigene Meinung, was qualitativ hochwertiger Content sei, ist völlig belanglos (!!!). Entscheidend ist, ob man einschätzen kann (oder messen oder analysieren), was die Masse der Menschen für qualitativ hochwertig hält. Und zwar bezogen auf jedes einzelne Keyword!
Aber ich muss das gleich wieder einschränken. Denn im Grunde wird aus dem Video eine sehr erhebliche Schwäche des Prinzips deutlich: Matt spricht von einigen „hundert“ Ratern. Aber die Meinung dieser Rater, zumal wenn sie bezahlt werden, sind sicherlich keine wirklich statistisch belastbare Größe für – naja, letztlich für „Menschheit“. Matt gibt das indirekt auch zu, und schränkt deswegen auch ein: man nimmt die Daten der Rater zwar sehr Ernst, aber letztlich entscheiden doch andere.
Und das wiederum zeigt, dass Google in letzter Konsequenz nur aus den Live-Ergebnissen und der Art, wie die User sie benutzen, wirklich belastbare Daten ziehen kann! Und daraus wiederum folgt, dass große Updates auch tatsächlich mal groß schief gehen können. Und dann rudert Google wieder zurück, wie schon oft erlebt. Also: als Seo ist man gut beraten, die User-Signale auszuwerten und Ernst zu nehmen. Dann wird das auch mit Google klappen :-)
18 Gedanken zu „Matt Cutts über die „Google Rater““
Schöner Artikel am Sonntag-Abend. Genau die richtige Gute-Nacht-Geschichte. :-)
Ja wirklich schöner Artikel am DIENSTAG-Abend ;-)
Ich schreib jetzt mal das, was mich in den Kommentaren immer nervt aber ich meine es ernst:
Wirklich interessanter Artikel!
Danke für den Tipp. Hatte das Video noch gar nicht entdeckt. Hier wird mal wieder wunderbar deutlich, dass Google eben nur eine Maschine ist und kein Mensch. So schnell wird Google auch nicht wie ein Mensch denken können und die Tester bilden nur eine kleine Masse ab. Da wir wissen, dass die auch nicht immer so richtig liegen, sollten wir unser Augenmerk weiterhin auf den User halten und nebenbei dran denken, dass es da noch Google + Tester gibt.
Ich würd ja auch gern mal Google-Tester werden ;) Wär schon spannend zu wissen, wie die jetzt genau vorgehen.
Auch Mittwoch früh noch sehr interessant. Im Grunde funktioniert es genau so wie man es sich auch gedacht hat.
Sehr schön und endlich mal wieder ein Artikel ohne Piguin ^^. Im Grunde ist der Kern dann ja, dass man sich an den Nutzern orientieren sollte also an Menschen. Das kann man nur immer wieder doppelt und dreifach unterstreichen.
Der wirklich entscheidende Punkt in den Aussagen von Cutts ist wohl wirklich, dass Goggle es versucht Seiten so zu bewerten (vom Content) wie es ein ’normaler‘ User macht. Die meisten SEOs sehen halt wirklich nur ihr Projekt und denken, SO UND NICHT ANDERS ist es perfekt. Aber jeder SEO sollte mal sein privates Surfverhalten beobachten. Was ist ihm bei der privaten Suche im Netz wichtig, welche Infos will er finden, was schreckt ihn eher ab.
Auch fehlt es in meinen Augen vielen SEOs an Basics im Bereich usability und Kunden-Verhalten. Ich hatte das Glück, dass ich an einigen Studien zu Benutzerfreundlichkeit teilnehmen konnte. Dort wurde auch immer überprüft, in wie fern sich ein Besucher gut informiert wird, was er gern anders hätte und was ihm fehlt.
Dieses Wissen ist für mich seit dem im Bereich Onpage meine Bibel. Was bringen mir alle noch so tollen Onpage-SEO-Tipps, wenn es dem Unser am Ende nicht gefällt, keine Conversions generiert werden und die Absprungrate überpropotional hoch ist.
Im Zuge der neuen ‚Qualitäts-Offensive‘ von Google halte ich es für durchaus wichtig, wenn man SEO betreibt, sich auch vermehrt damit auseinander zu setzen, was Nutzer im Netz wollen und sich nicht nur auf seo-technische Standarts zu beschränken.
Interessant wäre die Wahl der Suchbegriffe beim Testing.
Ist das immer die gleiche Liste?
Ist es eine Auswahl der meistgesuchten Begriffe oder eine völlig willkürliche Auswahl?
Nach wievor finde ich insbesondere das automatische „Bestrafen“ gefährlich, weil es auch Unschuldige treffen kann. Ohne ein „Recht auf Verteidigung“ – denn Anfragen an Google laufen ins Leere oder werden allenfalls maschinell beantwortet – gibt es „Kollateralschäden“, die wirtschaftlich schaden können. Natürlich müssen Seiten aus dem Index fliegen können, das ist klar. Bei seinen Marktanteilen müsste Google aber adäquate Kommunikationsmöglichkeiten anbieten.
Was genau sind denn User-Signale und wie werden sie ausgewertet?
Suche z.B. allgemeine Infos zu Walpurgisnacht (Historie, wie feiern etc).
Überspringe genervt die neuerdings kaum noch sichtbar unterlegten -zur Sicherheit- ersten vier Treffer weil die eh nur Werbung sind (demnächst lasse ich auch vier unteren Treffer weg, denn da finde ich neuerdings auch gesponsorten Scheiss) und lande
auf einer der empfohlenen Topseiten.
Die entpuppen sich als touristischer Bla.
Also zurück zur Trefferliste.
Zu faul, im Suchfeld meine Suche näher zu umschreiben.
Und so kreuche ich von Seite zu Seite und -ich sag´s ehrlich- am liebsten ist mir dann immer noch Wikipedia und die alten eingesessen Zuverlässigen (z.B. Chefkoch für Rezepte, twitter für Aktuellstes, ftd für Wirtschaft etc).
Das ist kein User-unypisches Verhalten.
Das ist User Alltag.
Wie „beobachten“ SEO das und wie algorithmiert Google sowas?
Meine Meinung zu dem Thema ist so: Wer vernünftigen Content liefert und es mit Keyword suffing etc. nicht übertreibt, der sollte nicht unbedingt Angst haben, dass ihm was passiert und wenn es der Fall ist kann man es meist wieder in Ordnung bringen :)
So ungefähr gedacht hatte ich mir das schon. Trotzdem nett das mal im Klartext zu hören. Da laufen also auch Blindstudien wie bei den Medikamenten ab. Aha.
Kommentare sind geschlossen.