Wie funktioniert der Google-Pinguin?
Das Google-Pinguin-Update hat die Suchmaschinenoptimierung tiefgreifend verändert. Die Methode „billiger Linkaufbau“ funktioniert nicht mehr. Es gibt zahllose Artikel darüber, wie man sich am Besten gegen den Pinguin schützt – und was man tun kann, wenn es einen getroffen hat. Es gab bisher aber eher wenig darüber zu lesen, was denn wohl im Hintergrund geschieht. Wie hat Google den Algorithmus modifiziert? Wie wirkt der Pinguin im Google-Algo? Ich möchte mal eine Erklärung versuchen.
Natürlich ist das folgende spekulativ (siehe dazu). Der Google-Algo ist ein Geheimnis. Nehmen wir mal zunächst das, was soweit klar ist:
Der Pinguin reagiert auf Links. Und zwar auf „schlechte“ Links. Links, die weder Juice noch Klicks haben. Das sind meist Bookmark-Systeme ohne Reichweite, Artikel-Verzeichnisse ohne Leser, Blogs mit beliebig gemischten Inhalten, Websites, deren Linkstruktur überwiegend aus Zirkelbezügen besteht, spamige Presseportale, verwaiste Foren und so weiter. Allen gemeinsam ist, dass wie für echte Benutzer uninteressant sind.
Wie wirkt nun der Pinguin?
Es gibt zwei Möglichkeiten:
- Er entwertet schlechte Links (die schlechten Links verlieren jeglichen Juice, ohne dass sie negativ wirken)
- Er bestraft schlechte Links (sie wirken also negativ)
Das ist ein fundamentaler Unterschied. Google selbst sagt, dass es keine negativen Links – und damit kein Negativ-Seo – gäbe. Aber wie können schlechte Links, wenn sie nicht negativ wirken, so einen krassen Sichtbarkeitseinbruch verursachen? Wenn sie eh kaum Juice hatten, dürfte sich doch im Grunde nichts ändern. Ein weiteres merkwürdiges Verhalten ist, dass ein Pinguin-Opfer in der Regel richtig hart kämpfen muss, um aus den Klauen des Südpolarvogels zu entkommen. Wie kommt das?
Die Pinguin-Hürde
Ich vermute folgendes:
Jede Seite kann einen bestimmten Prozentsatz schlechte Links verkraften, ohne dass es zu einer Penalty oder Abwertung kommt. Ob diese Grenze bei 30% oder 50% schlechte Links liegt, ist egal. Entscheidend ist das, was passiert, wenn man diese Hürde reißt. Denn dann, so vermute ich, wird diese Grenze erheblich reduziert. Ein Pinguin-Opfer darf also nur noch ca. 10% schlechte Links haben. Erst wenn man so viele Links abgebaut oder diavowed hat, dass man unterhalb der Grenze liegt, kommen die alten Rankings zurück.
So gesehen würde das Disavow-Tool von Google auch wieder Sinn ergeben. Denn Google sagt zwar, man könne mit schlechten Links keine andere Seite abschießen, aber offenbar ist es trotzdem nötig, schlechte Links aktiv zu entwerten.
Falls zutrifft, was ich vermute, würde das folgendes bedeuten:
- Beim Pinguin sollte man vor allem auf das Verhältnis zwischen guten und schlechten Links achten.
- Als Pinguin-Opfer sollte man möglichst nicht nur Links abbauen, sondern gleichzeitig neue gute aufbauen. So kann man wesentlich schneller und effektiver aus dem Pinguin-Tal entkommen.
- Je mehr gute Links eine Seite hat, um so sicherer ist sie vor dem Pinguin – selbst wenn sie sehr viele schlechte Links hat.
- Junge, neue Websites sind besonders anfällig für negative-Seo, weil sie noch keine Schutz-Linkmauer haben.
Offen ist die Frage, ob diese Grenze anschließend wieder hochgesetzt wird. Ich vermute, dass ist nicht der Fall. Ein ehemaliges Pinguin-Opfer wäre demzufolge wesentlich gefährdeter für einen erneuten Sichtbarkeitsverlust – und vor allem auch permanent potentielles Ziel neuer Attacken von negative-Seo. Als Betreiber eine Ex-Pinguin-Opfer-Website sollte man das Linkprofil sehr genau im Auge behalten.
Was meint ihr?
28 Gedanken zu „Wie funktioniert der Google-Pinguin?“
Absolut. Unterschreib ich sofort!
Die Idee das Google sich das merkt halte ich für richtig. Und der Totalabsturz einiger Seiten konnte doch eigentlich nur heißen, daß die Links dann auch giftig waren.
Das mit den schlechten Links kann ich nicht bestätigen. Ich habe zwei Webseiten allein mit Social Bookmark Links aus Pinguin 2 heraus bekommen.
Sorry Martin, aber mit einigen deiner Vermutungen liegst du leider falsch.
Soweit sogut. Jetzt würde ich natürlich wissen: womit?
Hallo Frank,
das würde ich auch gerne mal wissen ;-)
Grüße
Gretus
Interessante Theorie, welcher ich sogar folgen würde. Die Praxis zeigt wirklich es ist deutlich schwerer aus den Pinguin Klauen zu entkommen als angenommen.
Es ist inhaltlich richtig gedacht, das neue gute Links den Prozess beschleunigen, aber wenn man zu viele neue gute Links aufbaut gerät man auch in den Google Strudel.
Hallo Martin,
den Ansatz find ich schon ganz gut. Was mir jedoch fehlt, ist der Bezug zu den Linktexten. Mein Blog ist ja selbst vom Pinguin betroffen. Viele meiner Links stammen aus Blogs und bringen Traffic. Deshalb glaube ich, dass diese Links nicht schlecht sein können. Warum der Pinguin dennoch zugeschlagen hat, weil die Linkquellen zu einseitig sind und gleiches gilt (in meinem Fall) auch bei den Linktexten.
Wenn deine Theorie stimmen würde, dann müsste ich dich auch anschreiben und um Entfernung einiger Kommentarlink bitten ;) Was ich nicht tun werde, weil dein Blog einfach spitze ist!
Ja, richtig ist (wahrscheinlich), dass Google die Ankertexte – wie auch alles andere einer Seite – nutzt, um die Qualität des Links zu analysieren. Aber das gehört eher zum Thema „gute und schlechte Links“. In diesem Artikel wollte ich darauf hinaus, was Google denn mit den schlechten Links macht. Wirken sie wirklich negativ? Und wenn ja: warum nicht überall gleich?
Btw: Ich finde es es schwierig, zu beurteilen, ob Deine Seite ein Pinguin-Opfer ist. Denn Du hast noch so wenig relevante Rankings, dass schon eine kleine Veränderung bei einem oder ein paar starken Keywords alles zum Wanken bringen können.
Oder hast Du so viele schmutzige Links aufgebaut? ;-)
Immer :D
Ich denke, dass das Thema Links einfach viel zu „einfach“ betrachtet wird. Im Internet kann man viel lesen über gute Links und schlechte Links. Der Webmaster fixiert sich auf dieses Thema und vergisst dabei einfach komplett sein Projekt. Google ist nicht blöd, dass haben wir alle schon gemerkt. Ich würde Internetseiten eher im Kontext vom Thema sehen.
Beispiel: Schnuller
Nehmen wir mal 60 Seiten zum Thema Schnuller. Es handelt sich um Affiliate Projekte. In solchen Bereichen wird man fast keine guten Links bekommen, z.B. von Zeitungen usw. Die meisten werden mit Bookmarks, Webkatalogen und AVZ arbeiten. Wenn alle 60 Seiten Ihre Links aus diesen Quellen beziehen, dann wird der Pinguin in diesem Bereich nicht so hart „greifen“. Die Seiten mit ein paar guten Links stehen weiter oben.
Der Penguin ist in meinen Augen viel komplexer aufgebaut. Es werden nicht nur die Ankertexte analysiert und die Quelle der Links. Es geht darum, in welchem Bereich man ist und wie die Links der Konkurenz aussehen.
Wenn bei Google kaum einer nach dem eigenen Brand sucht, wieso wird die Seite dann ständig verlinkt ? Laut Analytics hat man in einem Monat nur 10 Besucher, aber 90 neue Links, passt ja auch nicht so ganz. Diese Daten kann man in den Algo einbauen.
Fasst man die Daten zusammen, dann kann man wunderbar Seiten „abstrafen“ und muss sich auch nicht wundern.
In der Theorie magst Du recht haben. Aber Google hat ja neben der Frage, was man alles machen könnte, auch ein ganz praktisches Problem: das muss ja alles berechnet werden. bei 100 Links ist es kein Problem, bei 1 Mio auch noch nicht, aber überlege mal, wie viele Milliarden Links Google auf dem Schirm haben muss. Und wie viele Millionen Links sich stündlich verändern und neu hinzukommen.
Ich denke, eines der wichtigsten Kriterien des Algo ist, dass er mit sehr wenigen Kennzahlen und Funktionsweisen zurecht kommen muss.
Ich glaube, da habt Ihr beide ein bisschen recht. Ich denke auch das Links je nach Branche / Wettbewerbsumfeld anders bewertet werden, so würde ich auch jüngste Äußerungen von Herrn Cutts verstehen, dass gezielt einige Bereiche auf die Agenda kommen, die spammiger sind als andere.
@Martin: Ich glaube du sprichst hier den Knackpunkt an. Natürlich muss Google hier eine gegen unendlich gehende Zahl von Links kontrollieren und bewerten. Ich glaube aber, das genau hier der Hund begraben liegt. Mit Penguin haben haben Sie einen Algo gefunden, der mehrere neue Attribute sehr effizient verarbeiten kann. Dafür spricht meines Erachtens auch die Form der Updates in Iterationen in mehr oder weniger festgelegten Abständen.
Wenn man mal ein bisschen über den Tellerrand schaut und sieht was im big data Bereich in den letzten Jahren für Effizienzsteigerungen drin waren, die nicht einfach nur in schnelleren Rechnern begründet sind, dann kann man erahnen wie weit Google in diesem Bereich ist.
In der Theorie magst auch du recht haben ;-)
Egal was stündlich im Internet passiert, Google muss ja nur interessieren, was der Crawler findet. Die Geschwindigkeit vom Crawler kann man auf die Performance der Berechnungen skalieren. An Geld wird es bei Google auch nicht scheitern. Zusätzlich kann man einzelne Parameter priorisieren. Dann muss auch nicht immer sofort alles berechnet werden. Was interessiert den User die Seite zu „Kredit“, welche auf Platz 6.601 ist ? Eigentlich gar nicht. Hier kann man die Priorität der Seiten die weit hinten sind nach hinten schieben. Wirklich interessieren würden mich die Seiten bis Platz 100 zu einem Keyword. Schon minimieren sich die Berechnungen die man machen muss.
Würde auch mit dem übereinstimmen, was manche Beobachten. Seiten springen von Platz 250 auf Platz 400 und dann auf Platz 190. Google interessieren diese Seiten eben nicht. Umso näher man an die Top 50 geht, umso kleiner sind eigentlich die Sprünge in den SERPS.
hast du diese Taktik auch schon bei brille-kaufen.org probiert???
ich glaube nicht (mehr), dass Brille-kaufen.org wirklich ein Pinguin-Opfer war. Aber ich hatte in der Tat ca. 10 Links diavowed (Bookmark-Systeme ohne Impressum). Nur: vor dem „pinguin-Verdacht“ war ja die Infografik, und darüber sind so viele Links gekommen, dass die noch so viele spamige Bookmark-Links egalisiert hätten.
Insofern ist das oben pure Theorie ;-)
Links, die weder Juice noch Klicks haben
– Wie kennt google denn dass die links klicks haben?
Jede Seite kann einen bestimmten Prozentsatz schlechte Links verkraften, ohne dass es zu einer Penalty oder Abwertung kommt
– Richtig
1. Option
Du kommst auf meine Seite. Ich nutze Analytics und sehe, dass du von einem Link kommst. Ergebnis: Google weiß, dass du auf der anderen Seite den Link angeklickt hast.
2. Option
Du bist auf meiner Seite und ich nutze Analytics. Mit etwas JS Know How kann man recht leicht ermitteln ob jemand noch auf der Seite ist. Ob Links angeklickt wurden etc.! Man kann alles mögliche nachladen.
3. Option
Keiner von uns nutzt Analytics. Daher würde ich die Priorität davon abhängig machen, ob ich z.B. Analytics Daten von dir habe.
Man muss sich doch nix vor machen. Google braucht Daten zur Auswertung. Umso mehr man hat, umso besser kann man Sachen einschätzen. Alles andere wäre Schätzen. Dann ist aber das „Geheule“ los, weil eine Seite auf Platz 1 ist und man selber nur auf Platz 4.
Ich habe kein Problem Google möglichst viele Daten zugeben von echten Projekten. Es sind Algorithmen. Algorithmen brauchen Parameter. Also bitte, ich gebe alles raus was ich kann.
– Google Chrome?
– Google Toolbar?
Eine geringe Anzahl an schlechten Links ist für jede Website ein Muss, sonst schlägt der alte gute Pinguin doch zu, wegen Überoptimierung :)
Mich würde Frank’s Theorie brennend interessieren…
die Frage sit nur, was ist ein guter Link.
Du schreibst: „Erst wenn man so viele Links abgebaut oder diavowed hat, dass man unterhalb der Grenze liegt, kommen die alten Rankings zurück.“
Dieses Thema wurde gerade auf Abakus behandelt: http://www.abakus-internet-marketing.de/foren/viewtopic/t-119193.html
Komischerweise konnte auch in dem Thread kein Mensch ein Projekt nennen, welches wirklich wieder die alten Rankings erreicht hat. Hast du da andere Informationen ?
wie dort schon steht: siehe Artikel von Hanns: http://www.sistrix.de/news/neues-google-update-entlaesst-einige-domains-aus-den-krallen-des-pandas/
Onmeda ist zum Biepsiel wieder da und macht mir ordentlich das Leben schwer ;-)
Dann wäre das doch aber auch ein Beweis, dass negatives SEO funktioniert. Ich werde das mal bei mir testen. Ich habe einige Links von AVs, die aber meistens mittlerweile ins Leere führen. Die sollen angeblich gar nicht zählen -> habe ich hier im Blog oder woanders gelesen. Dumm ist nur, das dieses Projekt nur einen themenrelevanten eingehenden Link hat.
@ Martin
Onmeda war nie vom Pinguin betroffen. Die Abstrafung kam 2011 beim Panda und nicht beim Pinguin, genauso wie bei allen anderen genannten Domains/Projekte in dem Artikel. Da hast du Panda und Pinguin durcheinander gebracht.
Toller Artikel Martin, vielen Dank.
Mir stellen sich hierbei zwei Fragen.
1. Sollte nicht das Disavow-Tool in erste Linie für manuelle Verstoße sein?
2. Pinguin-Updates werden manuell eingespielt. D.h. eigentlich dürfte ich falls ich vom Pinguin betroffen bin, meine Sichtbarkeitsveränderung / Rankings erst beim nächsten Pinguin-Update auch sehen? D.h. wenn ich jetzt meine Rankings mit Linkabbau bzw. Linkaufbau verändern, dann hat das nichts mit Pinguin zu tun?
Was meinst du?
Gibt es denn ein echtes Musterbeispiel, wo eine Seite wegen dem Pinguin abgestürzt, aber dann wieder auferstanden ist? Bei Onmeda kann ich keine Verbindung zu Pinguin-Updates erkennen. Und konnten diese Seiten sich wirklich aus eigener Kraft freistrampeln und das Sistrix-Tal verlassen oder wurden sie alle nur von Google im Nachhein begnadigt? Ich würde nämlich gerne wissen, ob die angesprochene Taktik (schlechte Links raus, gut neue Links rein) tatsächlich etwas bringt.
Kommentare sind geschlossen.