Google Bounce Factor : Le secret le mieux gardé de Google !

De nombreux facteurs certainement pris en considération par Google dans l'élaboration de son classement sont difficilement démontrables. C'est justement le cas pour le taux de clic dans les SERP et l'utilisation de certaines données telles que le taux de rebond ou plus globalement de l'utilisation des informations fournies par Google Analytics.

Voici une traduction d'un article paru sur 1stsearchenginerankings.com qui s'intéresse justement à ces problématiques. Vous trouverez quelques remarques sur les hypothèses avancées juste après la traduction.

Bonne lecture.


Cela fait quelque temps que je promets d'écrire cet article mais j'attendais d'avoir assez de données pour le faire. J'ai fait beaucoup de recherches et j'ai désormais le sentiment d'avoir assez approfondi le sujet pour être en mesure de vous offrir au minimum une explication basique de cette nouvelle technologie, de ses effets sur nos sites web, de comment contrer les problèmes qu'elle peut causer, et de quels avantages peuvent en être tirés.

Les données que je vais exposer sont basées sur mes propres recherches, et sur celles effectuées par d'autres participants sur SeoChat, ainsi que par 100 participants anonymes qui ont eu la gentillesse d'y consacrer leur temps.

J'espère que cet article vous aidera à mieux comprendre quels sont les effets du l'analyse comportemental de Google sur votre site.

Tout d'abord allons jeter un oeil du côté de SeoChat et d'une expérience qui y a été lancée par le distingué membre Gazzakh. Le but de son expérience était de déterminer si oui ou non le nombre de clics vers un site répertorié par les résultats de recherche Google pouvait avoir un effet positif ou négatif sur le classement de ce site sur Google. Voici le thread officiel de l'expérience menée :

Experience #1 : Les clics influent-ils sur le classement de Google ?

Afin de vérifier cette théorie, nous avons demandé aux utilisateurs de participer, et avons reçu une réponse positive de la part de 65 intéressés. Nous avons ensuite choisi une page qui n'était pas utilisée et dont nous étions surs qu'elle ne recevrait malheureusement pas de backlinks.

Puis nous avons trouvé une phrase de recherche qui classait notre site-test en bas de la page 1(#10,11). Nous avons demandé aux utilisateurs d'effectuer cette recherche précise et de cliquer sur le résultat pour ce site spécifique. Le site utilisé pour l'expérience n'avait pas Google Analytics et ne pouvait donc pas déterminer ce que faisaient les utilisateurs lorsqu'ils cliquaient pour aller sur le site, SAUF si ceux-ci retournaient ensuite sur Google, ce que nous avions interdit à tous les participants de faire.

Il fallut attendre deux semaines pour constater un changement notable, mais tous les participants n'avaient pas commencé l'expérience au même moment, ce qui à mon avis a aussi permis une simulation plus réaliste.

Au début, nous avons constaté un changement d'une ou deux positions seulement, donc le site restait dans les positions #10, 11, 9 et 8. Mais après environ deux semaines, le classement du site a commencé à s'améliorer bien plus nettement, grimpant jusqu'à la position #4 et même, selon certains, #2.

Il faut garder deux choses très importantes à l'esprit en ce qui concerne cette expérience. Tout d'abord, il s'agissait d'une expérience à très petite échelle, réalisée à partir d'une phrase qui n'était pas compétitive du tout.

En deuxième lieu, à part celles des participants, aucune autre recherche n'était effectuée pour cette phrase particulière, ce qui signifiait donc aux yeux de Google que 99.9% ou même 100% des recherches pour ce résultat avaient mené à ce site-là et pas à un autre. Ceci a sans doute indiqué à Google que les autres résultats n'étaient pas ce que souhaitaient trouver les utilisateurs, donc le moteur de recherche a commencé à remonter le site-test dans son classement.

J'ai tenté de reproduire cette expérience à une bien plus grande échelle en utilisant un mot clef d'un niveau de compétitivité moyen et avec une centaine de participants, mais je n'ai constaté absolument aucun changement dans le classement.

Ma conclusion est donc que ce facteur précis, c'est-à-dire le taux de clic dans les pages de résultats, à une très faible valeur et qu'il ne produira vraisemblablement de résultats que si la majorité des internautes cliquent sur ce site précis ou si la majorité des clics vers d'autres sites terminent en rebond.

Donc pour ceux d'entre vous qui songiez à payer des indiens pour qu'ils cliquent sur vos positionnements de sites dans les résultats de recherche Google, vous pouvez immédiatement renoncer à cette idée, à moins d'embaucher 5 à 10 mille indiens sans quoi il n'y aurait aucun changement visible.

Donc les résultats de l'expérience sont les suivants :

  • Pour une recherche avec comme mot clef le nom d'une entreprise vous verrez sans doute votre positionnement s'améliorer dû au fait que la plupart des utilisateurs vont cliquer sur votre résultat puisque c'est ce qu'ils recherchent.
  • Un mot clef de compétitivité moyenne avec 100 participants de partout dans le monde en train de cliquer sur un même résultat, n'a conduit à aucune amélioration visible du classement, certainement parce qu'il y avait beaucoup plus d'autres utilisateurs qui cliquaient sur les autres résultats de la recherche.
  • Il est probable qu'une majorité de clics dirigés vers un site en particulier aiderait Google à définir que ce site mérite un meilleur classement.
  • Ça ne vous servira pas à grand chose d'embaucher des indiens pour cliquer sur votre site dans la liste de résultats de recherche.

Experience #2 : Le Google Bounce Factor existe-t'il ?

Cette deuxième expérience était légèrement différente. En plus de demander aux participants de cliquer sur un classement précis, nous leur avons demandé de passer du temps sur le site en question, de cliquer sur des liens, de faire semblant de lire des passages etc. En gros de faire comme s'ils appréciaient et utilisaient le site naturellement.

Ce site, contrairement à celui utilisé pour la première expérience, était équipé de Google Analytics sur toutes ses pages. Comme dans l'expérience 1, le site n'était pas fréquenté et aucun lien n'avaient été gagné pendant une période d'un an avant le test, ainsi que pendant ou même après l'expérience.

Aucun des sites utilisés pour ces expériences n'a été ajouté en lien. Nous nous sommes servis de trois sites pour cette expérience ainsi que des données obtenues sur trois sites possédant des comptes Google Analytics qui nous ont été généreusement soumis par trois webmasters sur SeoChat.

Comme la précédente, cette expérience a été rendue possible par 100 participants. J'avais espéré recevoir la participation de 500 personnes environ et ne m'attendais pas par conséquent à observer de changement positif ou négatif notable dans le classement basé sur une centaine de participants seulement.

Nous voulions prouver par cette expérience que les données obtenues grâce à Google Analytics sont utilisées pour modifier le positionnement des sites dans Google.

Nous voulions démontrer que le Google Bounce Factor existe réellement et que le temps passé par un visiteur sur un site joue un rôle dans l'évolution de son positionnement. Que nous ont donc dévoilé ces données ? Lisez la suite...

J'ai demandé aux participants de suivre mes instructions sur une durée d'une semaine, de la même manière que pour la première expérience. Ils devaient cliquer sur le classement, passer en moyenne 7 à 10 minutes sur la page, après quoi ils devaient cliquer sur des liens au sein du site lui-même (pas de liens sortants), et finalement, ils devaient passer au moins une fois de 30 minutes à une heure sur le site.

Ils devaient ensuite quitter une page contrôlée par Google Analytics pour se rendre sur une page (faisant toujours partie du même site) mais qui n'était pas taguée. Ceci était donc pour Google le dernier signe de présence de l'utilisateur sur le site.

Pendant la première semaine nous n'avons constaté aucun changement, et commencions à nous demander si la phrase de recherche n'était pas trop compétitive et s'il ne nous faudrait pas plus de participants. Mais au bout d'une semaine nous avons commencé à remarquer des changements.

Après une semaine et demi, le site a sauté 47 positions, passant de la 80ème place à la 33ème. Nous sommes d'avis que si nous avions poursuivi l'expérience plus longtemps, nous aurions pu conduire le site à la première page du classement.

Pendant que cette expérience était en cours, le taux de rebond avait chute à 13% et la durée moyenne des visites était passée d'une minute et demi à 12 minutes.

Après la fin de l'expérience, lorsque les utilisateurs avaient cessé de cliquer sur le site, nous avons constaté que le taux de rebond augmentait à nouveau jusqu'à 75% et que le temps de visite moyen était redescendu à 3 minutes. Après environ 9 jours à compter de la fin de l'expérience, nous avons vu le site regagner son taux de rebond initial, c'est-à-dire 78%.

Je précise à nouveau que le site ne connaissait aucune activité en dehors de l'expérience que nous avons menée, c'était un site web quasi mort.

Ainsi, à l'aide de mes recherches personnelles et de ce que j'ai pu constater sur mes propres sites, les conclusions que j'en tire sont les suivantes :

  • Le Google Bounce Factor existe vraiment. Par conséquent, trop de recherches qui mènent à un clic sur votre site suivi d'un rebond pourraient endommager le classement de votre site.
  • Diminuer ce taux en donnant aux usagers ce qu'ils recherchent plus vite, a semblerait-il un effet très positif sur votre site.
  • La durée de temps passé par les visiteurs sur votre site n'a vraisemblablement que peu d'effet sur votre classement, cependant toutes les expériences ne nous ont pas permis de vérifier ce fait de manière certaine.
  • Les données de Google Analytics sont en fait utilisées par Google afin de manipuler les résultats de son moteur de recherche. En utilisant Google Analytics, les informations récoltées pourraient avoir soit un effet positif, soit une effet négatif sur votre site.
  • Le taux général de rebond pour un site, ainsi que chaque pourcentage isolé de rebond correspondant à chacun de vos mots-clefs, jouent tous un rôle.

Vous serez sans doute nombreux à vous dire qu'il vaudrait mieux retirer le code Google Analytics de votre site et d'arrêter d'utiliser ses services. Il y a des arguments pour et contre. Cela dépend vraiment des données de votre site, est-ce vraiment une raison pour le supprimer ?

Si votre taux de rebond dépasse les 65% et tourne autour des 75% et que votre temps moyen de visite est très faible, je vous conseillerais de retirer le code pour l'instant. Utilisez peut-être Clicky Web Analytics 2.0 à la place, jusqu'à ce que vous soyez parvenu à faire baisser votre taux de rebond. Si vous avez un taux de rebond très élevé, essayez d'en déterminer les raisons, pour régler le problème à sa source, puis recommencez à utiliser Google Analytics.

Je pense aussi, même si je n'en suis pas absolument sûr et qu'il me manque les informations pour le prouver, que les données de votre compte Google Analytics peuvent être utilisées pour le positionnement sur Google Adwords. Je ne fais pas assez de positionnement payant pour pouvoir le vérifier malheureusement.

Si quelqu'un connaît bien Google Adwords et aimerait bien tester cette théorie, tenez moi au courant des résultats !

Beaucoup de webmasters ont exprimé leur inquiétude à propos de ce type de facteur de classement, pensant qu'il encouragerait les webmaster à embaucher des gens pour cliquer dans les SERP dans le but d'améliorer leur classements.

Nous avons déjà déterminé qu'il n'y avait que de très faibles chances d'améliorer votre classement en faisant cela, même en utilisant des mots clefs très peu compétitifs, même si, rappelons-le, le fait que la majorité des utilisateurs vont rebondir ou non lorsqu'ils tombent sur votre site et le temps qu'ils y passent peut jouer sur votre classement.

Cependant, les donnés indiquaient aussi que ceci n'était pas un phénomène isolé. Les données globales, et celles acquises sur la longue durée, peuvent continuer à avoir un effet sur votre site, donc vous risquez de perdre votre classement si le taux de rebond se met à croître de nouveau.

Cette recherche est basée sur l'expérience SeoChat, mes propres sites, et à peu près cinq autres sites qui ont été généreusement mis à notre disposition pour effectuer ces tests. Je tiens à remercier personnellement toutes les personnes qui ont donné de leur temps pour participer et qui ont partagé leurs sites et leur informations analytiques. Sans elles, cette expérience n'aurait pas été possible.


Vous êtes encore en train de lire ? 🙂 Voici quelques remarques sur ces expériences.

En ce qui concerne le taux de clic dans les SERP, il s'agit d'un élément indubitablement pris en compte par Google et ceci depuis plusieurs années. Vous pouvez d'ailleurs constater par vous même, l'évènement javascript "onmousedown" placé sur les liens. D'ailleurs si mes souvenirs sont bons, pendant longtemps seuls les clics sous Internet Explorer étaient trackés. Quelqu'un confirme ?

En ce qui concerne la pondération de ce facteur, elle reste difficile à évaluer. L'expérience décrite dans cet article ne permet de tirer aucune conclusion définitive. En revanche, étant donné qu'il s'agit d'un critère difficilement falsifiable par un webmaster, il y a de fortes chances pour que Google lui accorde une certaine confiance.

J'avoue avoir essayé d'utiliser ce critère lors du dernier concours de référencement auquel j'ai participé en incitant mes contacts à cliquer sur ma page de concours une fois par jour. Il serait aberrant qu'un moteur n'utilise pas ce critère.

Google est parfaitement capable de détecter (sans Google Analytics) si, après avoir cliqué sur un résultat, vous êtes revenu sur la page de recherche. Vous vous souvenez peut être de cet article : Evaluer la pertinence des publicités Google Adwords, Google invitait un internaute ayant cliqué sur un lien sponsorisé à évaluer le site visité. A mon avis, la complexité à influencer ce facteur est tout simplement proportionnelle aux nombres de saisies quotidiennes de l'expression clef ciblée.

Bien entendu, Google n'aura pas manqué de mettre en place des contrôles notamment via l'adresse IP et les autres fonctionnalités anti-fraude utilisées pour Google Adwords ou Google Adsense.

Concernant l'utilisation des données de Google Analytics, j'ai envie de dire qu'il est certainement difficile pour Google de ne pas utiliser ce type de données. De la même manière que Google n'annoncera jamais qu'il existe un lien entre le Référencement Naturel (sens large) et les liens sponsorisés, il est peu probable que Google communique un jour sur cela.

Il faut toujours avoir en tête que Google recherche la pertinence. Un site qui possède un fort taux de rebond est-il un site qui ne répond pas à la recherche de l'utilisateur ? Dans la majorité des cas, je serais tenté de répondre "oui". En tant qu'administrateur d'un annuaire, cela est dur à avaler. Je dois vous avouer que le taux de rebond est tout simplement monstrueux et dépasse les 70%...

Par ailleurs, le fait de revenir sur la page de recherche Google est certainement encore plus néfaste qu'un simple rebond vers un autre site.

Au delà de l'utilisation du taux de rebond, Google Analytics fourmillent de données potentiellement intéressantes dans le cadre de l'élaboration de son classement mais aussi tout simplement pour indexer plus rapidement et même en temps réel...

En guise de conclusion, je tiens à rappeler encore une fois qu'il n'est pas possible de tirer de conclusions définitives sur les éléments soulevés dans ce billet. Les algorithmes des moteurs de recherche gardent certains de leurs secrets et c'est ce qui fait du référencement naturel un métier passionnant. Ce billet doit donc être lu et interprété en ayant cette remarque à l'esprit.

Merci à ceux qui auront lu cet article en entier ainsi qu'à ceux qui laisseront leurs remarques en commentaire et je souhaite plus que jamais un bon référencement à tous ceux qui répondront à l'appel du linkbaiting 🙂

Ne manquez pas les futurs articles via Twitter

A propos de l'éditeur d'Oseox.fr

Aurélien Bardon est un passionné de SEO. Il crée Outil-Referencement.com en 2005, Oseox.fr en 2008, fonde en 2009 l'agence SEO Aseox à Lille et lance en 2016 Oseox Software, une plateforme de logiciels SEO.

Oseox Monitoring