Vers la fin des critères ON
S'il y a un constat qu'il est possible de dresser en observant l'évolution des algorithmes des moteurs de recherche, c'est certainement l'abandon progressif des critères "ON".
Qu'est ce qu'un critère "ON"
On distingue deux types de critères ON :
- On page
- On site
Comme leur nom l'indique, "on page" se rattache à une page et "on site" à un site. Le webmaster a la main directe sur les critères dits "on" contrairement aux critères "OFF" qui sont plus difficiles voir impossible à manipuler.
Voici quelques exemples de critères "on" : Title, contenu, maillage interne, nom de domaine, balisage...
Il reste donc tous les critères OFF. J'ai la sensation que non seulement Google cherche à leur donner de plus en plus d'importance dans ses algorithmes mais qu'il cherche également à augmenter cette liste de critères.
Au départ, Google a introduit le prise en compte du nombre de liens pointant vers une page via son célèbre pagerank. Il s'agissait certainement d'un des premiers critères off. Puis tout est allé en se complexifiant...
Contrairement à ce qui peut être prôné par certains ayatollahs du référencement, j'ai la nette sensation que le contenu en lui même a moins d'impact qu'auparavant. Bien entendu sans contenu, il ne faut pas rêver non plus... ne me faites pas dire ce que je n'ai pas dit.
Alors quels sont ces critères OFF ?
De plus en plus de critères viennent enrichir la prise en compte des backlinks. Nous sommes bien loin de l'époque où seul le nombre de citations étaient comptées. Aujourd'hui, on peut compter des dizaines de facteurs venant pondérer la valeur des backlinks.
L'utilisation des données utilisateurs semblent être plus que jamais d'actualité avec notamment la personnalisation des résultats en fonction des sites visités, de sa localisation etc.
La prise en compte des clics et de la navigation dans les SERP
L'exploitation des données de services internes : Trafic et comportement via la Google Toolbar. Nombre d'abonnés dans Google Reader ? Taux de rebond dans Google Analytics ? Comparaison du trafic entre site de même thématique ?
L'exploitation des données de services externes : Nombre de pages bookmarquées sur del.icio.us ? Nombre de réactions d'après technorati ? Présence dans Dmoz ?
Utiliser ce type de données, c'est chercher à comprendre si un site plait aux internautes et répond à leurs attentes. Et c'est bien cela l'enjeu des moteurs de recherche, c'est à dire la pertinence !
Pourquoi cette direction est-elle inévitable ?
Le nombre de pages indexées par Google devient de plus en plus important, les techniques de base du positionnement naturel sont de plus en plus connues et maitrisées, la concurrence de plus en plus acharnée. Afin de garantir un "index sain", de préserver et même accroitre sa pertinence, Google se doit d'être moins manipulable par les webmasters.
Les critères Off sont par définition plus difficilement manipulables et il serait logique que Google travaille dans ce sens. Pour certains, cette complexification signifie la mort du référencement naturel. Pour ma part, je crois qu'au contraire cela représente une sorte de garantie, celle de la nécessité de faire intervenir des experts.