Indexation, HCU, SERP : Où va Google et pourquoi ?

Débutons cet article par un rappel des faits :

Changement sur l'indexation

Changement sur la visibilité des sites

Qui est touché ?

La plupart de tout ce qui est décrit dans ces articles touchent plus fortement les petits sites peu populaires et plutôt les "sites de contenu".

Par exemple, concernant l'indexation, j'ai pu résoudre 100% des problèmes qu'on m'a présenté sur les gros sites alors que sur des petits sites cela tâtonne toujours versus l'époque béni du lancement de l'indexation en "temps réel" (2007).

Mais cela touche aussi des gros sites qui abusent. D'ailleurs Google a réussi à passer pour de nombreux filtres/algo d'une logique de sites à une logique de pages.

Les sites qui n'ont pas été créé pour Google sont moins ciblés. C'est à dire les sites E-commerce, les véritables services...

Indexation, HCU, SERP : Où va Google et pourquoi ?

Qu'est ce qui a changé ?

Le web de 2007 versus le web de 2024 n'a plus rien à voir. Le web grossit et il grossit de plus en vite.

1 - Pour pouvoir suivre, il faut de plus en plus de ressources à la fois pour crawler, analyser, stocker et interroger. Ce qui coûte excessivement cher.

2 - Pour un très grand nombre de requêtes. En tout cas pour les plus populaires hors actualité, Google dispose de résultats qui sont déjà satisfaisants pour les utilisateurs. Ils le savent car ils analysent en permanence leur satisfaction (Analyse comportementale SERP, pogosticking, Chrome...). Google a moins besoin de nouveaux contenus hors actualité.

3 - Une grande partie des contenus est similaire. Une grande partie des contenus est du duplicate. Une grande partie des contenus est inutile. J'avais même envie d'écrire la majorité... La majorité des pages publiées sur internet ne reçoivent pas une seule visite en provenance de Google.

4 - L'IA générative est apparue. Le contenu est devenu ou va devenir infini. Devant cette certitude, pourquoi attendre. Tout indexer et même juste tout crawler va devenir d'une part une mission impossible mais aussi un gouffre financier sans fin.

Qu'est ce que cela impacte ?

1 - Google est une entreprise cotée en bourse. Elle doit rendre des comptes.

Ses rivaux, pas au sens "moteur de recherche" mais au sens plus global sont gigantesques et eux aussi font la course à la rentabilité.

Il faut donc veiller à ce "KPI" vital. Il suffit de voir l'effervescence à chaque publication de résultats trimestriels.

2 - Techniquement, même quand on s'appelle Google, disposer d'un index monstrueux qui ne cesse de grandir pose forcément des problématiques techniques de plus en plus inédites. Aussi bien pour le stockage, les sauvegardes que le fait de l'analyser et l'interroger.

3 - Eviter d'être trop gros permet aussi d'aller plus vite pour un grand nombre de tâches. Notez que ce point est vrai aussi bien pour un moteur qu'un humain (j'ai commencé une diet hier ^^)

helful content update et google

Comment gagner en rentabilité ?

1 - Le plus simple est de manipuler les SERP. Objectif, augmenter le temps de clics sur les Ads. Bien entendu cela passe par des Ads de plus en plus pertinents mais aussi et surtout par le CTR sur ces Ads.

Des micro changements permettent d'augmenter le CTR. Si vous analysez sur des années le CTR à position constante vous pourrez le constater.

Cela impacte le SEO car nous pouvons capter moins de trafic. Heureusement depuis 15 ans, il y a plus en plus de personnes qui utilisent et consomment via Internet afin de compenser un peu la baisse du CTR organique.

2 - Augmenter le CPC améliore aussi directement la rentabilité (Il faut aller à la limite de ce que sont disposés à payer les annonceurs sinon cela devient contre productif (comme des impôts trop élevés ^^)

3 - Réduire le crawl : Crawler le web en permanence coûte très cher. Le recrawler rend la note encore plus salée. Re-re-crawler une page qui n'a pas changé depuis 5 ans augmente la facture tout en apportant quasiment rien en retour.

Vous l'avez compris. Rentabilité et crawl sont liés. Il s'agit d'une source de rentabilité. Moins crawler permet de faire des économies

4 - Moins stocker

Si vous découvrez moins d'URL, vous allez mécaniquement réduire la vitesse de croissance de l'index et donc augmenter la rentabilité où du moins la préserver.

A cela s'ajoute la volonté de crawler puis de décider de ne pas stocker la page. Comportement que vous pouvez constater dans vos Google Search Console et très bien souligné ici par Olivier de Segonzac de l'agence Résoneo.

Indexation Google

Indexation, HCU et avenir des "petits sites"

Nous avons donc constaté des problématiques d'indexations puis de visibilité pour un grand nombre de sites / URL et pouvons comprendre pourquoi Google va dans ce sens d'un point de vue purement économique/technique sans même avoir eu besoin de parler de la pertinence.

Google aura toujours envie d'aller voir car la rapidité de disposer d'une info importante et la proposer dans les SERP est capitale mais cela coûte très (trop) cher.

Rappelez vous les histoires liées à la création de Google News ou de Google Images à savoir le 11 septembre et la robe verte Versace de Jennifer Lopez ou bien encore l'affichage des Tweets dans les SERPs ainsi que l'ancien accord Twitter/Google pour un accès privilégié à la base de données.

Toutefois, la prochaine étape sera carrément l'absence de crawl pour un grand nombre de pages / URL.

Le prochain enjeu sera alors de savoir comment titiller / appâter Google pour lui donner envie de venir.

Les plus anciens SEO connaissent l'histoire de l'odeur de l'internaute. Attention, cela date de 2009 ! Et pourtant, c'est déjà et cela va être de plus en plus utile.

Vous vous souvenez du link baiting ? La prochaine activité des SEO ? Le Bot baiting : -)

Comme on dit dans le Nord, Bon courage !

Ne manquez pas les futurs articles via Twitter

A propos de l'éditeur d'Oseox.fr

Aurélien Bardon est un passionné de SEO. Il crée Outil-Referencement.com en 2005, Oseox.fr en 2008, fonde en 2009 l'agence SEO Aseox à Lille et lance en 2016 Oseox Software, une plateforme de logiciels SEO.

Oseox Monitoring