Google Penguin Update

Nachdem das Panda Update im Jahr 2011 Websites minderer Qualität mit Rankingverlusten abstrafte, änderte das Google Penguin Update im darauffolgenden Jahr den Ranking Algorithmus. Die Sichtbarkeit der betroffenen Seiten fiel dadurch teilweise sogar drastisch gegen Null oder die Seite wurde komplett aus dem Index gelöscht.

Was ist Google Penguin?

Der Hintergrund des am 24. April 2012 zum ersten Mal in Kraft getretenen Updates ist die Reduzierung von Spam-Suchergebnissen in den SERPs, weshalb das Update zunächst noch unter dem Namen „Webspam Algorithmus Update“ bekannt war. Hierunter fallen alle Maßnahmen, die die Google Webmaster Guidelines verletzen, wie z.B. das Aneinanderreihen von Keywords, das Schaffen von Linkmustern oder Cloakingversuche. Natürlich werden auch alle Spam-Maßnahmen, die nicht in den Guidelines aufgeführt sind und manipulativen Charakter haben, abgestraft.

Penguin Update 2.0 und die entscheidenden Algorithmusfaktoren

Ein Jahr nach dem erstmalig ausgespielten Penguin Update wurde am 22. Mai 2013 das Penguin Update 2.0 bekanntgegeben. Dieses setzt besonderen Fokus auf künstliche und gekaufte Backlinks sowie auf Cloakingversuche, wie sie im Blackhat-Bereich verwendet werden.

Selbstverständlich wird der Algorithmus von Google nicht komplett offen gelegt. Jedoch können sich durch die Analyse von bereits abgestraften Websites Trends abzeichnen. Ein großer Faktor ist demnach das Backlinkprofil, das auf unnatürliche Muster geprüft wird:

  • Ein gutes Verhältnis zwischen Brand- und non-Keyword-Linktexten sollte dabei gegeben sein und harte Money-Keywords vermieden werden. Das „gute“ Verhältnis hängt dabei immer von der jeweiligen Branche ab, bzw. von deren Durchschnittswerten.
  • Die verlinkende Seite sollte außerdem thematisch zur Website passen. Als Negativbeispiel könnte hierbei ein Mutterblog, der ohne passenden Kontext auf eine Pokerseite verlinkt, genannt werden.
  • Qualitative Faktoren bilden zudem sowohl die Art der verlinkenden Seite (z.B. Forum, Verzeichnis, etc.) selbst sowie die Position des gesetzten Backlinks auf dieser. Dabei gibt es Unterschiede ob der Link im zentralen Content gesetzt wurde oder es sich um Kommentarspam, einen Footerlink oder eine Platzierung in einer Linkliste handelt. Letztere können Indizien für einen qualitativ minderwertigen Link sein. Die Qualität des jeweiligen Links muss jedoch von Fall zu Fall gewogen werden, da ein Link aus einem thematisch passenden Forum beispielsweise natürlich sehr relevant für eine Website ist. Aus diesem Grund muss auch hier das Verhältnis zwischen „echten“ und „fake“ -Links gegeben sein.
  • Ein rasches und für die Website unnatürlich großes Wachstum an Backlinks können ebenfalls für Googles Aufmerksamkeit sorgen.

Sowohl das erste als auch das zweite Update stellen somit neue Rankingfaktoren dar, die durch Algorithmen unnatürliche Signale von Websites erkennen. Auffälligkeiten in besonderen Mustern und Unnatürlichkeiten lassen Google auf Manipulation schließen. Dabei ist nicht jedes einzelne Qualitätssignal für sich zu betrachten, sondern das Gesamtbild einer Website im Auge zu behalten. Ein hoher Trust schützt nicht vor Abstrafung wenn eindeutige Verstoße erkannt worden sind. Ist die eigene Website betroffen, gilt es, das eigene Backlinkprofil von „schlechten“ Links zu befreien oder per Google Disavow-Tools zu entwerten.