Panda-Update

Das Panda-Update von Google ist eine umfassende Neuausrichtung des Ranking-Algorithmus, die permanent erfolgt, also seit dem ersten Rollout im Februar 2011 immer weiter durchgeführt wird. Sie wurde inzwischen von anderen Updates überlagert, doch ihre Prinzipien bleiben in Kraft.

Filterung durch das Panda-Update

Das Panda-Update wird als Filter regelmäßig auf den kompletten Google-Index angewandt. Dieser Filter setzt qualitativ schlechte Webseiten im Ranking deutlich herab. Der erste Rollout von Panda erfolgte am 23.02.2011 für die USA, am 11.04.2011 für alle sonstigen englischsprachigen Webseiten und am 12.08.2011 für den Rest der Welt außer für Webseiten auf Japanisch, Chinesisch und Koreanisch. Diese folgten etwas später.

Der Name Panda stammt übrigens nicht vom putzigen Bären, obgleich man das wegen anderer Namensgebungen für Google-Updates (Penguin, Hummingbird) vermuten könnte, sondern leitete sich in diesem Fall vom Google-Ingenieur Navneet Panda ab, der einen maßgeblichen Beitrag für dieses Update geleistet hatte. Die Änderungen durch Panda betrafen erstmals die Rankings kompletter Webseiten. Bei vorherigen Updates hatte Google eher nur auf Unterseiten fokussiert. Von Panda waren anfangs ~12 % der englischsprachigen und ~6 – 9 % (je nach Sprache und Region) der übrigen Webseiten betroffen. So einen großen Effekt hatten andere Updates nicht.

Inzwischen sind diese Effekte etwas zurückgegangen, weil Optimierer verstanden haben, was das Panda-Update erlaubt und was nicht. Das grundlegende Ziel besteht wie immer in der Verbesserung der Trefferqualität für die Nutzer, im Detail werden seit bzw. durch Panda folgende Mängel härter geahndet:

  • Duplicate Content (von anderen Webseiten übernommene Inhalte)
  • zu wenige hochwertige Backlinks auf die Seite
  • zu geringe Verweildauer der Nutzer
  • hohe Bounce Rate (Absprungrate)
  • Unterseiten mit wenig Inhalt
  • Boilerplate-Content (gleiche Texte auf verschiedenen Unterseiten)
  • zu viel Werbung
  • keine Übereinstimmung von Seitentitel und -inhalt mit der Suchanfrage (durch Platzierung irrelevanter Keywords)
  • zu hohe Keyword-Density

Solche Schwächen führen nicht unbedingt zu harten Penalties (Strafen), doch die Seiten sind schlechter sichtbar. Bei sehr gravierenden Schwächen der genannten Art wie etwa massenhaftem Duplicate Content gibt es unter Umständen eine Penalty, die ein Herabsetzen in den SERPs (organischen Suchergebnissen) hinter Rang 60 bedeutet.

Die Philosophie hinter dem Panda-Update

Die Verantwortlichen von Google betonen an jeder erdenklichen Stelle, dass Webseiten für Nutzer und nicht für Suchmaschinen aufgesetzt werden sollen. Panda rückt diese Philosophie in den Fokus und fordert somit die Webmaster auf, die gesamte Gestaltung der Webseite und ihren Inhalt strikt an den Bedürfnissen von menschlichen Nutzern und nicht an denen der Googlebots auszurichten. Das bedeutet unter anderem, vertrauenswürdige und wertvolle Informationen zu publizieren und nicht Texte oder sonstigen Content nur für die Platzierung von Keywords zu schaffen.

Auf die Keywords hat es Panda besonders abgesehen: So stürzten im Verlaufe des Jahres 2011 nicht nur Webseiten, sondern auch ganze Cluster von Seiten, die sich auf ein bestimmtes, zuvor gehyptes Keyword bezogen hatten, schlagartig ab. Der Panda-Algorithmus ist wie vorn erwähnt nach wie vor wirksam. Es gab ein größeres zusätzliches Update im Jahr 2014 und zwischenzeitlich bis zur Gegenwart (2021) immer wieder Data-Refreshes zum Panda-Update. Dies ist ein sogenannter Panda-Everflux, der vermutlich monatlich durchgeführt wird.

zurück zur Übersichtsseite