Google Pingouin et compagnie : Que se passe-t-il vraiment ?
WoW ! Comme en 2008 avec l'attaque des annuaires ou plus récemment lors de Panda cela bouge vraiment du coté de pages de résultats Google.
Ceux qui travaillent dans le domaine du référencement depuis longtemps sont habitués à ce type de bouleversements mais il faut bien avouer que ces 6 derniers mois furent assez costauds !
Depuis une quinzaine de jours, il est possible de lire des dizaines de tweets, de topics et d'articles qui partent dans tous les sens. Entre la communication plus ou moins claire de Google, les tentatives de traductions tantôt "orientées" tantôt maladroites, les analyses "à chaud"... c'était un grand n'importe quoi.
Partons des annonces officielles :
19/20 Avril : Google Panda 3.5 Twitt de Matt Cutts et Panda Update 3.5 Is Live: Winners & Losers
24/25 Avril : Google Penguin : Another step to reward high-quality sites
Il faut avouer que l'enchainement de ces 2 actions a rendu l'analyse plutôt complexe.
Pour les anxieux :
- Votre trafic n'a pas chuté fortement ? Aucune raison de s’inquiéter
- Vous avez détecté de petites variations +5 / -5 ? Cela est assez courant, surtout après 2 importantes mise à jour, rien de trop inquiétant non plus. C'est la nature même du référencement naturel !
Vous avez été touché par Panda 3.5 ou par Google Pingouin ?
Essayons tout d'abord de comprendre ce qui a été visé sans a priori. Pour cela, partons des propos officiels de Google !
"le conseil que nous pouvons donner aux webmasters est de privilégier la création de sites de haute qualité qui répondent aux attentes des internautes, et d'adopter des techniques de SEO "White hat" au lieu de mettre en œuvre des tactiques de spam agressives".
"En clair, nous parlons des sites qui pratiquent le webspam. Vous trouverez ci-dessous un exemple de site surchargé de mots clés qui sera concerné par cette modification :".
Cette technique s'appelle du bourrage de mots clés, en anglais "keyword stuffing".
Google nous propose un deuxième exemple.
"Voici un exemple de site avec des liens suspects qui sera également concerné par la modification. Si vous lisez le texte à haute voix, vous remarquerez que les liens sortants n'ont aucun rapport avec le contenu."
Cet exemple semble cibler le contenu généré automatiquement dans lequel est placé des liens hors thématiques.
Le titre de l'article d'où sont tirés ces exemples est : Une autre mesure pour récompenser les sites de haute qualité. Il a été rédigé par Matt Cutts en personne. Globalement nous savions déjà depuis longtemps qu'il était risqué de faire cela...
Concernant Google Panda, je ne reviendrai pas dessus. Cet algorithme a été très largement commenté depuis 6 mois.
En guise de complément, de Janvier à Mars, Google avait optimisé ses algorithmes sur :
- L'analyse des ancres des liens
- La quantité trop faible de contenu au dessus de la ligne de flottaison (publicité)
Si vous voulez vous en tenir à ce qu'il y a d'officiel, je vous conseille de ne pas lire la suite de cet article.
Que cherche à faire Google ?
Tout d'abord on pourrait penser que Google souhaite ridiculiser les référenceurs. Franchement, aller parler de Panda puis de Pingouin à ses clients...
N'accordez pas trop de crédits à un webmaster donnant son avis sur la situation si celui-ci n'est pas basé sur une analyse d'au moins 20 sites très différents.
Gardez la tête froide. Cela n'est pas des balises title ciblant plusieurs expressions clés ou 30 communiqués de presse qui vont faire tomber un gros site bien installé. Les exemples pointés du doigt par Google sont assez clairs.
Google a déployé ses nouveautés à l’échelle mondiale directement, ce qui n'est pas toujours le cas. Il peut y avoir des erreurs.
Les impacts ne semblent pas toujours "heureux" pour la pertinence du moteur. Il existe même un formulaire afin de se plaindre si vous avez été touché à tort.
Les justifications "humaines" via Google Webmaster Tools sont parfois étranges. Un éditeur de templates qui semble de bonne foi est sensé supprimer l'ensemble des "liens" placés en footer venant signer ses créations. Que penser des agences web qui signent leur travail en footer des sites de leurs clients ?
Les actions actuelles de Google semblent être là pour lutter contre la facilité d'optimisation du SEO d'un site. Nous le savons depuis plusieurs années, le talent d’Achille de Google, à l'origine de sa pertinence, est sa sensibilité aux liens.
Nous sommes devant 2 phénomènes :
- D'une part une action contre les pratiques black hat. Une posture plutôt classique pour un moteur de recherche. Même si la tache semble impossible temps que le lien sera un critère fort de l'algorithme...
- D'autre part, une action visant à réduire l'impact global des liens, essentiellement l'impact des liens les plus "modestes" souvent utilisés par les white hat.
Au final, Google cherche à maximiser ses revenus publicitaires. N'oublions jamais cela.
Chaque centime envoyé en SEO est un centime qui n'entre pas dans le budget Adwords. La modification du ciblage Adwords, Googla Panda et l'augmentation énorme de visibilité de Google Shopping, l’intrusion de plus en plus excessive de Google+ dans les pages de résultats...
Qui est le plus touché ?
Pour avoir analysé plus de 50 sites, les sites les plus sensibles semblent être :
- Les sites de mauvaise qualité
- Les pages ultra optimisées
- Les sites dont la popularité ne repose {que|essentiellement} sur des liens de faibles poids
- Les sites ayant moins d'un an (logique car moins de temps / légitimité pour obtenir de gros liens)
- Les pages dont la popularité ne repose {que|essentiellement} sur des liens de faibles poids
- Les sites avec très peu de pages
Au cours de cette analyse, j'ai vu finalement peu de sites touchés.
A retenir, un lot de mini-sites. Quasiment la totalité de ces sites disposaient de peu de contenu et n'avaient pas de "gros backlinks" pouvant les protéger. En gros, ils ciblaient tous une requête, le contenu était très optimisé et les backlinks très très très trop ciblés
Ce groupe de sites aurait du tomber il y a longtemps, c'était très prévisible.
J'ai vu aussi un petit site Ecommerce perdre également quelques positions. Il était sur-optimisé et n'avait que des petits backlinks. Aucun gros BL pour le protéger. Il était entièrement pensé SEO jusqu'à la moindre virgule.
Tous les autres sites analysés n'ont pas été touchés, aussi bien les jeunes que les vieux. Globalement ils avait tous au moins quelques gros backlinks et avaient tous dans le même temps des liens optimisés de qualité moyenne (annuaires, communiqués...).
Enfin, aucun n'avait de lien en provenance de campagnes massives à coup de Xrumer, LFE ou autre.
Comment pratiquer le SEO aujourd'hui ?
Cela va clairement être plus difficile. Le curseur des optimisations à bouger. A noter que ce curseur n'est pas positionné au même endroit pour tous les sites. On ne peut se permettre des choses identiques en fonction de l'age, de la thématique et de la popularité d'un site web.
C'est notamment pour cela qu'il faut se méfier des conclusions trop "généralistes" sur la situation actuelle.
Concernant la frontière black hat / white hat, le débat devient très lassant car la frontière change toujours d'un référenceur à l'autre.
A partir du moment où vous faites du netlinking, vous ne suivez plus strictement les recommandations des moteurs de recherche.
Si vous ne faites pas de netlinking, vous pouvez dire adieu aux belles requêtes et à la croissance forte et rapide. Il y a clairement un choix à faire. Le netlinking reste de l'augmentation artificielle de popularité. Peu importe qu'il s'agisse d'annuaires, de communiqués, d'échanges en footer / in text, de commentaires, d'achats, de profils...
Concernant les pratiques de netlinking visées, Google n'a pas pointé du doigt dans son dernier billet directement les communiqués de presse SEO. Toutefois, ces derniers semaines, plusieurs sites de communiqués ont été pénalisés. Il n'y a pas forcément un rapport entre ces pénalités et Pingouin. C'est pour cela que je recommande de faire attention actuellement. Il va falloir attendre de voir les survivants.
Vous connaissez tous maintenant la recommandation visant à varier les ancres. Un bon linkbuilder sait en fonction du site, de la concurrence, des supports utilisés, du mot clé travaillé, comment bien varier les ancres afin d'obtenir des résultats.
Il va falloir trouver de nouveau les bons réglages. Il faudra certainement obtenir encore plus de liens pour compenser... et surtout des liens avec plus de poids.
Enfin, concernant l'optimisation "onpage", là aussi, il faudra revoir les réglages mais il faut avouer que cela ne servait déjà pas à grand chose de sur-optimiser. Le traditionnel combo title, url, H1 + backlink avec ancre devient plus osé...
Bref, soit il faudra accepter de prendre des risques, soit il faudra accepter de ne plus avoir de croissances magiques et des résultats très rapides... dans tous les cas, nous manquons encore tous de recul pour parfaitement analyser la situation.