Désavouer un lien : Vive le crowdsourcing !
Je passe sur les détails de l'outil et sur la simple annonce de sa sortie, des dizaines d'articles traitant déjà de ce sujet.
Ce qui m’intéresse plus dans cette nouveauté Google, est la question du pourquoi ?
Comme vous le savez certainement, le lien est le critère jouant le rôle le plus important dans l’algorithme de Google sur les requêtes concurrentielles.
Si vous pouvez obtenir de nombreux liens en provenance de domaines non identifiés comme spammy, vous pouvez presque vous positionner sur n'importe quoi, parfois dans un temps record !
Des business entiers se sont montés sur "juste" quelques très gros liens très intelligemment obtenus. D'autres sur des milliers de "petits" liens obtenus parfois de manière quasi automatique.
Google n'apprécie pas que l'on manipule la popularité et lutte donc contre l'ensemble des liens obtenus artificiellement.
Seulement, la tâche s’avère très ardue. A peine un réseau est blacklisté, que deux autres sont créés. Les outils SEO deviennent de plus en plus sophistiqués (on dit que la mafia russe est parfois derrière certains...) et les pratiques des référenceurs de plus en plus précises.
Google a donc commencé une gigantesque opération de communication et à notamment lancé son fameux Google Pingouin.
De nombreuses mises à jour avaient également pour objectifs de lutter contre la suroptimisation aussi bien au niveau onpage que offpage.
Et il faut avouer que cela a très bien marché !
Quasiment tous les référenceurs ont du revoir leurs pratiques, sauf ceux lavant plus blanc que blanc depuis toujours. Bravo à eux.
L'un de mes gourous SEO @MagicYoyo va même jusqu'à dire sur Twitter : "Depuis 12 ans que je fais ce métier, je n'ai jamais vu les SEO aussi largués..."
En revanche, de multiples pages de résultats sont devenues moins pertinentes, les effets de bords semblent nombreux.
L'outil Google permettant de désavouer un lien est à mon humble avis la cerise sur le gâteau.
Voyons en 4 points les conséquences de la mise à disposition de ce nouvel outil :
Les risques pour le propriétaire du site
Désavouer des liens n'est-il pas dans certains cas un aveu de netlinking artificiel ?
Allez vous supprimer vos "pires" liens et garder les autres qui à vos yeux sont acceptables ? Mais seront-ils acceptables aux yeux de Google s'il s'y intéresse ?
Désavouer de nombreux liens, entrainera-t-il une review manuelle ? Si oui, pensez-vous n'avoir vraiment rien à vous reprocher ? Cela ne serait-il pas un risque de faire entrer le loup dans la bergerie ?
Les risques pour les éditeurs de sites à backlinks
Si de nombreux webmasters / SEO dénoncent des liens en provenance de votre site, les conséquences risquent d'être douloureuses. Inutile de préciser le process, il me semble plutôt limpide...
Les bénéfices de cet outil pour Google
C'est là, où on comprend mieux la raison d'être de cet outil.
Si vous pouvez griller l'une de vos URL ou l'un de vos mots clés via une action de netlinking trop poussée, n'importe qui peut le faire à votre place... pour votre propre site. C'est donc la porte ouverte au negative SEO.
Ce lien de cause à effet était ce qui protégeait les SEO depuis longtemps.
Je peux acheter du lien car Google ne pourra pas savoir si c'est moi ou un concurrent qui achète.
Je peux placer des backlinks car Google ne pourra pas savoir si c'est moi qui a réalisé cette action ou non.
Dans le doute, Google peut difficilement pénaliser de manière automatique et systématique un site. Je suis sauvé et je spamme. En cas de review manuelle, je perds mais cela reste rare.
C'était la philosophe de ces dernières années.
Les règles du jeu ont changé.
Google en a peut être eu marre de voir les SEO fanfaronner en expliquant comment ranker en 72H, Google a peut être commencé à craindre pour sa pertinence, Google n'apprécie peut être pas de voir des budgets SEO grossir et des budgets SEA diminuer...
Maintenant, on pénalise d'abord et on parle après.
Cela remet la majorité des SEO dans le droit chemin. Cela calmera-t-il les vrais blackhats ? C'est déjà moins évident.
Rappelez-vous du problème de Google : Identifier plus rapidement et plus facilement les domaines émettant des liens factices.
Plutôt que de recruter des dizaines de milliers de personnes pour "contrôler le web", autant faire un peu de crowdsourcing.
Trop long, trop cher, pas assez efficace de le faire à la main
Trop difficile de développer des algorithmes efficaces
Nous allons donc faire le travail de Google. Google va pouvoir fermer beaucoup de sites de mauvaise qualité où il était possible d'obtenir facilement des liens. Google pourra aussi réduire la pondération de liens de gros sites peu regardant sur les liens sortants. Et enfin, Google pourra repérer de nouveaux sites travaillant leur netlinking de manière trop poussée.
Pour moi, Google est 100% gagnant. La mise à disposition de cet outil n'encourage pas le spam car il existait déjà le demande de re-examen et les bons blackhat ne linkent plus en direct depuis bien longtemps pour diverses raisons 🙂
Dans quel cas utiliser cet outil de Google?
Non, ce billet n'est pas 100% à charge, il y a bien un bénéfice pour l'utilisateur.
Celui qui respecte depuis toujours scrupuleusement les règles de Google, qui n'a même pas un petit blog comment ou une fiche d'annuaire de qualité moyenne à se reprocher et qui devient victime d'une opération de negative SEO sera bien content.
Toutefois, encore une fois, face à du negative SEO, la re-examen pouvait faire l'affaire.
J'avais notamment aidé à sortir un client de se bourbier suite à une attaque assez énorme de liens via sites russes et US avec des ancres à base de petites pilules bleues.
Bref si vous n'avez strictement rien à vous reprocher, foncez ! Dans les autres cas, il convient peut être de réfléchir judicieusement, à moins que cela soit ma paranoïa googlienne...