Moyenne, sur-optimisation, spam et référencement
Vous avez lu le petit manuel du SEO ?
H1, H2, H3, url, title, gras, alt, backlinks... vous en mettez partout et pensez être au top des optimisations ON page ?
Souvent on peut voir sur les forums SEO, des webmasters ne pas comprendre pourquoi ils ne rankent pas alors qu'ils "font tout bien". Et effectivement, lorsque l'on consulte leur site, tout est ultra optimisé, lissé... Etrange non ?
Je dois avouer qu'il m'arrive de "désoptimiser", de ne pas chercher à bourrer le H1 des mots clés visés etc.
Comment savoir jusqu'où aller ? Où s'arrêter ? Comment ne pas en faire trop et ne pas aller trop loin ?
Il est toujours difficile de répondre à cette question, le feeling joue assurément et la limite doit dépendre d'une thématique à l'autre, d'un historique à l'autre...
Si vous avez lu quelques livres dédiés à Google et à ses fondateurs, vous connaissez leur amour pour les statistiques. Il faut trancher sur un choix ? Regardons les stats et décidons avec les chiffres ! Voici ce que l'on doit fréquemment entendre dans les jolis bureaux de Google.
Google indexe le web et bien plus maintenant, j'ai presque envie de dire que Google indexe le monde.
Ils peuvent certainement sortir des statistiques sur tout et n'importe quoi. Lorsque l'on fait des statistiques, on s'intéresse très vite aux notions assez simplistes de moyenne et d'écart type.
Ainsi, plutôt que de fixer des limites, Google peut observer à loisirs la distribution moyenne des valeurs observées, calculer des écarts type, établir des moyennes, observer des évolutions, et surtout repérer rapidement tout ce qui s'écartent beaucoup de ces chiffres.
Etant donné le volume monstrueux de données collectées, ces chiffres peuvent être calculés sur des populations très précises et rester fiables, par exemple : "Les sites traitant de l'immobilier en France", "Les blogs actifs traitant du référencement en Allemagne", etc.
Ainsi les comportements observés peuvent être liés à des utilisations du web et des thématiques très variées. Cette approche macro permet d'obtenir des résultats plus fins.
Avec ces chiffres, Google peut déclencher / appliquer automatiquement des filtres ou algorithmes ciblant des domaines concrets, des langues, des utilisateurs, des types de sites...
Coté SEO, il faut donc certainement ne pas trop être éloigné du comportement moyen, peut être faut-il s'approcher au plus près de la limite du déclenchement d'un filtre sans le dépasser afin d'être performant ou au moins échapper à une pénalité.
On peut imaginer le même type de comportement pour un service comme Google Adsense, qui doit repérer les utilisations suspectes.
Une preuve ?
Web metrics: Size and number of resources
J'étais tombé il y a quelques années sur une page de ce type mais dédiée au HTML, si quelqu'un retrouve ce document, je lui serai très reconnaissant et il gagnera un backlink dans ce billet.
Edit : mickaelb a trouvé ! Apprenez la cuisine avec lui : Recette facile