Proportion lien / texte et Référencement

La proportion lien / texte est un problème qui me laisse souvent perplexe. Je ne crois pas avoir lu de référenceurs vraiment s'exprimer sur le sujet et j'espère que cet article pourra faire naître une discussion intéressante.

Commençons par une petite définition : La proportion lien / texte se calcule en comparant la proportion de texte cliquable (sur lequel est donc appliqué un lien) et du texte non cliquable.

Tout ce qui va suivre est bien entendu assez empirique. Je partage ici ce que j'ai constaté sur plusieurs sites... mais je n'ai bien entendu pas audité des milliers de sites web, il n'y a donc aucune garantie 😉

  • Une page ayant une proportion d'éléments cliquables très élevée serait plus difficile à faire indexer.
  • Une page ayant une proportion d'éléments cliquables aurait plus de chance d'avoir sa "barre à pagerank" grisée

Par deux fois, j'ai testé la modification de la proportion lien / texte en faveur du texte sur des pages au pagerank grisée pour voir finalement apparaitre "du vert" (Je n'ai pas fait attention les autres fois).

Plusieurs fois, j'ai réussi à régler des problèmes d'indexation en ajoutant du contenu. En 2007, j'avais développé pour l'un de mes sites web un module de plan de site dynamique assez évolué. C'est en ajoutant judicieusement du contenu à mes listes de liens que Google a fini par tout manger. D'ailleurs c'était indirectement via ce module que j'avais constaté pour la première fois le référencement en temps réel sans comprendre immédiatement la révolution qui était en marche.

La sensibilité de Google sur ce ratio serait notamment liée à la popularité de la page (et à l'autorité du domaine ?).

Les home page sont peut être exclues de cette algorithme ? Parce qu'il s'agit souvent des pages les plus populaires d'un site ? Parce qu'il s'agit d'home page ?

Ainsi une page très populaire pourrait se permettre de proposer une très forte proportion d'éléments cliquables ou tout du moins un pourcentage plus élevé qu'une obscure page au fin fond d'un site.

Lorsque l'on pose des hypothèses de ce type dans le domaine du référencement naturel, il faut systématiquement se poser la même question afin de ne pas partir dans des délires de référenceurs : En quoi cela peut rendre les résultats de Google plus pertinents ?

  • Une page proposant plus de liens que la moyenne est certainement un signal de linkspam potentiel
  • Griser le pagerank visible d'une telle page peut rendre plus difficile les échanges de liens (qui se basent sur ce critère)
  • Si tous les éléments pointent vers d'autres élements, cela signifie peut être qu'il ne s'agit que d'une page de transition, une page sans contenu original et donc avec un potentiel de pertinence plus faible

Je n'irai pas plus loin sur les hypothèses, encore une fois l'idée de ce billet est avant tout de recueillir vos avis et d'échanger sur une constatation commune ?

Ne manquez pas les futurs articles via Twitter

A propos de l'éditeur d'Oseox.fr

Aurélien Bardon est un passionné de SEO. Il crée Outil-Referencement.com en 2005, Oseox.fr en 2008, fonde en 2009 l'agence SEO Aseox à Lille et lance en 2016 Oseox Software, une plateforme de logiciels SEO.

Oseox Monitoring