Bildersuche News: Google Algo-Änderungen März 2012
Google hat erneut stichwortartig die aktuellen Algorithmus-Änderungen veröffentlicht. Nach 40 Änderungen im Februar sind es diese mal sogar 50 (!) mehr oder weniger kleine Änderungen. Es scheint fast, als wolle Google uns mit dieser Masse blenden. So häufen sich die Rückmeldungen, dass Google diese Serie dazu benutzt, um gezielt Nebelkerzen zu streuen. Ich halte das für falsch. Oder anders gesagt: ich nehme das, was Google da verbreitet, schon ernst. Allerdings sind die Einzelmeldungen teilweise verwirrend kurz. Was sich jeweils genau dahinter verbirgt, bleibt oft unklar. Ich konzentriere mich im Folgenden natürlich im Wesentlichem auf die Punkte herausgefiltert, die mit Bildern zu tun haben.
Relevantere Bilder auch von schlechten Seiten (?)
Bei Punkt 13 geht es mit den Bildern los:
More relevant image search results. [launch codename „Lice“] This change tunes signals we use related to landing page quality for images. This makes it more likely that you’ll find highly relevant images, even if those images are on pages that are lower quality.
Ich lese da folgendes heraus: „Relevantere Bilder-Ergebnisse: Diese Änderung verbessert die Signale hinsichtlich der Landing-Pages [auf denen die Bilder zu sehen sind]. Dadurch wird es wahrscheinlicher, dass man sehr relevante Bilder findet, selbst wenn sie auf schlechten Seiten eingebunden sind.“ – Hmm, vielleicht ist mein Englisch doch zu lausig. Mir kommt das sehr widersprüchlich vor: denn zuletzt hat Google doch davon gesprochen, dass man Seiten von hoher Qualität auch in der Bildersuche bevorzugen möchte. …
Bilder-Autocomplete weltweit (???)
Unter Punkt 14 heißt es:
Fresher image predictions in all languages. [launch codename „imagine2“, project codename „Suggest“] We recently rolled out a change to surface more relevant image search predictions in autocomplete in English. This improvement extends the update to all languages.
Auch hier steht ich im Wald. Frei übersetzt: „Aktuellere Bilder-Vorhersagen in allen Ländern. Wir haben vor kurzem eine Änderung ausgerollt, um relevantere Bilder-Vorschläge beim „Autocomplete“ anzuzeigen. Diese Verbesserung wird nun auf allen Sprachen erweitert.“ – Tjä, versteh ich nicht. „Autocomplete in der Bildersuche“? Habe ich noch nicht gesehen. Oder geht es um die Universal-search Bilder-Onebox? Auch in der englischen Bildersuche ist mir nichts aufgefallen, was dazu passen könnte. Wer eine Vermutung hat, was hier gemeint sein könnte, bitte gerne in die Kommentare…
[Übrigens geht bei mir gerade gar nicht mehr die „Live-Suche“ – normalerweise werden ja die Ergebnisse während des Eintippens angezeigt und live modifiziert. Das klappt nicht mehr. Man muss erst wieder „Enter drücken“ – was jetzt auch unter dem Suggest-Layer steht. Merkwürdig…]
SafeSearch-Filter verbessert
Der SafeSearch-Filter ist natürlich nicht nur für die Bilder relevant, aber eben auch für sie. Unter Punkt 15 kann man lesen:
SafeSearch algorithm tuning. [launch codenames „Fiorentini“, “SuperDyn”; project codename „SafeSearch“] This month we rolled out a couple of changes to our SafeSearch algorithm. We’ve updated our classifier to make it smarter and more precise, and we’ve found new ways to make adult content less likely to appear when a user isn t looking for it.
Frei übersetzt: SafeSearch Algorithmus aufgemotzt ;-). In diesem Monat haben wir eine Reihe von Veränderungen am SafeSearch-Algorithmus ausgerollt. Wir haben den „Classifier“ modifiziert, um ihn sauberer und präziser zu machen. Und wir haben neue Wege gefunden, durch die es unwahrscheinlicher wird, das „Erwachsenen-Inhalte“ angezeigt werden, wenn man gar nicht danach sucht.“ Das sagt natürlich gar nichts aus. Aber immerhin: Google hat mal wieder am SafeSearch-Filter geschraubt. Von große unberechtigten Filter-Strafen habe ich allerdings bislang nichts mitbekommen. Scheint mal ein gutes und kontrollierte SafeSearch-Algo-Update gewesen zu sein ;-)
Vereinfachung bei der Universal-Search Bilderberechnung
Bei Punkt 17 geht es um die Universal-Search Bilder:
Simplification to Images Universal codebase. [launch codename „Galactic Center“] We’ve made some improvements to simplify our codebase for Images Universal and to better utilize improvements in our general web ranking to also provide better image results.
Frei übersetzt: „Vereinfachung an der Bilder-Universal-Codebase. Wir haben einige Verbesserungen vorgenommen, um 1. unsere „Codebase“ für Universal-Bilder zu vereinfachen und um 2. Verbesserungen am generellen Web-Ranking [-Algo] besser benutzen zu können, um dadurch auch bessere Bildergebnisse anbieten zu können.“ Sehr komplizierter Satz, finde ich ;-)
Für mich klingt das nach dem, was beim letzten mal schon anklang: Google verknüpft den „normalen“ Algo mit dem „Bilder-Algo“. Wer sich mit der Bildersuche nicht so auskennt, wird das für nichts Besonderes halten. Aber ich finde das nach wie vor bemerkenswert und denke, man sollte diese Entwicklung genau im Auge behalten. Kurz zusammengefasst: bislang hatten die Algos nichts miteinander zu tun. Ein Bild konnte vorne sein, auch wenn die Seite in der Websuche nur unter „ferner liefen“ rangierte. Und umgekehrt: Bilder von Top-rankenden Seiten waren deswegen noch lange nicht vorne zu finden. Ich verstehe an dem Punkt allerdings nicht, warum Google hier nur von „Images Universal“ spricht. Das würde doch eigentlich alle Bilder betreffen, denn Bilder-Onebox und Bildersuche laufen doch einigermaßen synchron.
In diesem Zusammenhang ist auch der Punkt 42 interessant, der nicht mit Bildern, aber den Videos zu tun hat:
Migration of video advanced search backends. We’ve migrated some backends used in video advanced search to our main search infrastructure.
Meine These ist, dass Google die ganzen Vertical-Algos einstampft und daraus einen großen Riesen-Algo bastelt – flapsig formuliert :-) Siehe dazu auch: Die Verquickung der Seo-Disziplinen.
Verbesserung für ziemlich große Bilder auf hochwertigen Seiten
Unter Punkt 34 heißt es:
Improvements to Image Search relevance. [launch codename „sib“] We’ve updated signals to better promote reasonably sized images on high-quality landing pages.
Frei übersetzt: „Verbesserungen bei der Relevanz der Bildersuche. Wir haben Signale überarbeitet, um ziemlich große Bilder auf hochwertigen Seiten zu unterstützen.“ Ich verstehe das so: Bislang wurden sehr große Bilder gar nicht erst in der Standrad-Bildersuche angezeigt, sondern nur, wenn man explizit nach „großen Bildern“ gesucht hat. Nun werden diese sehr großen Bilder offenbar in die normalen Suchergebnisse integriert – wenn sie von hochwertigen Seiten stammen. Ich kann mir vorstellen, dass das in der Bildersuche einiges Durcheinander wirbeln könnte. Na mal abwarten…
So, abschließend möchte ich noch ein paar Punkte auflisten, die mir auch noch wichtig zu sein scheinen:
Universal-News optisch aufgewertet
Punkt 8 kündigt an, dass die News-Onebox in Zukunft noch mehr optisches gewicht bekommt:
UI refresh for News Universal. [launch codename „Cosmos Newsy“, project codename „Cosmos“] We’ve refreshed the design of News Universal results by providing more results from the top cluster, unifying the UI treatment of clusters of different sizes, adding a larger font for the top article, adding larger images (from licensed sources), and adding author information.
Das kann ich nur begrüßen: Die News-Meldungen waren zuletzt kaum noch von den normalen Ergebnissen zu unterscheiden. Und die Zeitungen wird s freuen, zumindest die, die bei Google mitspielen :-)
Ankertext als Rankingfaktor abgeschaltet und verbessert??? (Punkte 16 und 24)
Das dürfte Julian sicherlich interessieren:
„This month we turned off a classifier related to anchor text (the visible text appearing in links). Our experimental data suggested that other methods of anchor processing had greater success, so turning off this component made our scoring cleaner and more robust.“
Beim Lesen sollte man in diesem Zusammenhang allerdings auch Punkt 24 im Auge haben:
„Better interpretation and use of anchor text. We’ve improved systems we use to interpret and use anchor text, and determine how relevant a given anchor might be for a given query and website.“
Ist der Ankertext (siehe Glossar/em>) nun als Link-Faktor abgeschaltet und nur noch ein Onpage-Faktor? Oder was soll das bedeuten? Egal, da können sich andere Gedanken zu machen ;-)
Freshness in der Video-Onebox (Punkt 19)
Improvements to freshness in Video Universal. [launch codename „graphite“, project codename „Freshness“] We’ve improved the freshness of video results to better detect stale videos and return fresh content.
Kann ich aus den Erfahrungen der letzten Doodles bestätigen – frische Videos werden gerne schnell in der Video-Onebox angezeigt. Schade eigentlich, dass das jetzt öffentlich ist ;-)
Freshness kommt erst jetzt? (Punkte 22 und 36)
Der Punkt 22 ist sehr spannend:
Improvements to freshness. [launch codename „Abacus“, project codename „Freshness“] We launched an improvement to freshness late last year that was very helpful, but it cost significant machine resources. At the time we decided to roll out the change only for news-related traffic. This month we rolled it out for all queries.
Und auch in dem Zusammenhang (Punkt 36):
More precise detection of old pages. [launch codename „oldn23″, project codename “Freshness“] This change improves detection of stale pages in our index by relying on more relevant signals. As a result, fewer stale pages are shown to users.
Zur Erinnerung: Google hatte das Freshness-Update Anfang November 2011 ausgerollt und angekündigt, dass 35% aller Suchanfragen davon betroffen sein würden. Nachdem ich zunächst tatsächlich deutliche Veränderungen gesehen habe, schienen die plötzlich wieder weg zu sein. Damals dachte ich, dass das Freshness-Update doch nicht so einen großen Einfluss hätte, wie Google angekündigt hatte. Aber nun bestätigt Google, dass es seinerzeit einfach die Rechner-Kapazitäten gesprengt hat und daher zunächst ausgesetzt wurde. Bislang wurde es lediglich bei News-Traffic (QDF) umgesetzt.
Für mich ist das die „Hauptmeldung“ diese Algo-Updates: Freshness wird erst jetzt wirklich zum Tragen kommen.
Soviel dazu. Ob meine Einschätzung zu den einzelnen Punkten richtig sind, kann ich natürlich auch nicht mit Sicherheit sagen. Aber ich würde auf jeden Fall empfehlen, diese Serie der Algo-Änderungen genau zu verfolgen. Selbst wenn man einzelne Punkte heute noch nicht richtig versteht: im Laufe der Zeit fügen sich die Einzelteile zunehmend zu einem großen Gesamtbild. Wir haben ein Puzzle mit 10.000 Teilen, und Google wirft uns jeden Monat 40 oder 50 davon auf den Tisch :-)
Falls jemand einzelne Punkte oben anders einschätzt: über Kommentare freue ich mich natürlich immer… Hier der aktuelle Artikel im InsideSearch-Blog: Search quality highlights: 50 changes for March.
Ach, noch was! Google, wenn ich einen Wunsch frei hätte: bitte ordne das doch in Zukunft nach Themen. Das ist echt unübersichtlich …
Das schreiben andere…
- Seo-Selfmade: Google Algorithmus Änderungen im März
- …
13 Gedanken zu „Bildersuche News: Google Algo-Änderungen März 2012“
Nun rollt Google das Freshness Update doch wieder aus. Es war ja abzusehen, dass da noch was kommt und nun scheint es endlich da zu sein. Bin gespannt, welche interessanten Analysen wir in den nächsten Tagen zu sehen bekommen, auch hinsichtlich der Anchor-Texte. Für deine Bilder wird sich das Freshness Update doch sicher positiv auswirken, oder was meinst du Martin?
schwer zu sagen. Ich habe eine Reihe von ziemlich alten Bildern, die vorne gut platziert sind. Da auch die seiten sehr alt sind (4 – 5 Jahre), kann es durchaus passieren, dass diese Seiten / Bilder abrutschen.
Bzgl. Anchor-Text würde ich mich über einen Link von dir auf meinen Artikel freuen; im Zitat steht nämlich „classifier“, welches ich nicht als direkten Anchor deute.
Hab ich oben ergänzt…
Danke für die schöne Übersicht und deine Gedanken zu den einzelnen Punkten :)
Deinen Wunsch nach Ordnung im Google Blog Post kann ich voll und ganz nachvollziehen… wir sollten eine Petition starten. Beim 34 Update angekommen hat man die ersten 10 schon wieder vergessen… Da Hilft echt nur jeden einzelnen Punkt direkt einer Kategorie zuzuordnen.
Die Punkte Freshness, Bilder und Video hast du schon beschrieben, deswegen würde ich gerne kurz auf die Ankertexte eingehen.
Ich kann mir beim besten Willen nicht vorstellen, dass der Ankertext als Rankingfaktor abgeschaltet wird! Vielmehr sagt Google ja auch, dass :
„we turned off a classifier related to anchor text“
Vermutlich ist es eher ein Angriff auf x-mio „exact match Anchortexte“ – diese können vermutlich ab einer bestimmten Ratio oder Anzahl eher schädlich als hilfreich sein (Überoptimierung, Linknetzwerke etc.)
mit dem zweiten Statement:
“Better interpretation and use of anchor text. We’ve improved systems we use to interpret and use anchor text, and determine how relevant a given anchor might be for a given query and website.”
Fügt Google dann ja auch noch an, dass Sie thematisch passende Anchors jetzt besser erkennen und somit auch einem nicht „exact match Anchor“ mehr Credit geben.
Danke für die Hinweise. Zum Ankertext können andere sicherlich mehr beisteuern. Da ich selber (fast) keinen Linkaufbau mache, sind die Links, die ich beobachte, fast alle natürlich gewachsen. Insofern kann ich nicht beurteilen, was passiert, wenn man zu viele Keyword-Ankertexte hat.
Bezüglich Bildern in der Universal-Search und Bildersuche habe ich in letzter Zeit eher den Eindruck gewonnen, daß die Ergebnisse noch mehr auseinander gehen.
Die Änderungen in der Bildersuche wirken sich scheinbar überhaupt nicht auf die Bilder-OneBox aus. Oder anders gesagt, die Universalsearch-Ergebnisse sind teilweise stabiler und von der Bildersuche nicht aus der Ruhe zu bringen.
Aber wahrscheinlich sehe ich das wieder mal nur zu sehr aus meinem Blickwinkel der Brötchen-, Obst- und Gemüsebilder. :-)
Ah, interessant. Ich bin ja gerade in anderen Projekten involviert und beobachte zur Zeit nicht so genau, was passiert. Bei meinen Keywords scheint es noch einigermaßen synchron zu laufen. Man müsste die Bidox-Zahlen mal mit den Universal-Bilder-Zahlen eines Toolanbieters vergleichen…
Oder ich hole mir selbst mal mit den Bidox-Keywords die Universal-Search-Daten für sagen wir mal Seite 1 bis 5 in die Datenbank. Dann könnte ich das direkt vergleichen. Mal sehen…
Bei den Tools habe ich derzeit nur Zugriff auf SeoLytics, da gibt es zumindest auch Universal-Search-Daten.
Ersteinmal vielen Dank für den tollen und sehr ausführlichen Beitrag.
Ich bin so in etwa @schnurpsel seiner Meinung. Vieles ist für mich eher durcheinander geraten. aber warscheinlich liegt das auch an den Keywords.
Werde mal andere Suchen anstreben und dann noch einmal davon berichten.
gut – das thema ordnung hatten wir schon. das thema bildersuche ist wirklich ein klasse tool – zumal die inditierung ja eh schon auf den google servern liegt!
Kommentare sind geschlossen.