Le SEO en temps réel

Oseox Monitoring permet-il de suivre son SEO à peu près en temps réel ?

Nos crawlers testent 1 fois par heure chaque URL monitorée.
On ne peut donc pas parler de temps réel.

Toutefois, il s'agit d'un laps de temps très court dans le domaine du SEO où les référenceurs sont plutôt habitués
à faire des crawls 1 fois par mois, au mieux 1 fois par semaine.

Malgré ce délais de 1 heure qui nous éloigne du temps réel, il est courant que nos utilisateurs découvrent que leur site est down
via une notification d'Oseox Monitoring.

Il ne s'agit pourtant pas d'un outil de monitoring serveur qui lui testera au minimum toutes les 5 minutes voir chaque minute
pour les plus performants.

Les ressources serveur pour crawler et stocker chaque heure sont déjà très importantes. Par exemple, sur les 30 derniers jours, nous avons réalisé environ 10 millions de crawls.

Qu'est-ce que vous suivez en temps réel, exactement ?

Nous vérifions un maximum de critères dits "onpage" pouvant influencer la visibilité d'un site dans les moteurs de recherche.
Il faut distinguer le code HTML et les entêtes HTTP. Nous avons décidé de monitorer les 2.

Le code HTML va contenir des balises que les tous référenceurs optimisent : TITLE, meta description, meta robots, canonical... H1 etc.
Notre solution propose aussi de monitorer des changements de contenu ou de tag contenus dans le HTML comme un texte SEO placé en footer ou un tag de tracking analytics.

Les entêtes HTTP permettent de repérer par exemple si une page passent en 404 mais aussi l'ajout de certaines directives pouvant être catastrophiques pour le SEO d'un site. Il est possible via les entêtes HTTP de demander la non indexation d'une page (X-Robots-Tag) ou bien même d'inclure une canonical.

Enfin, nous monitorons et historisons aussi le moindre changement dans le fichier robots.txt

L'idée est d'être informé rapidement par email si une modification est repérée.

C'est courant de vérifier tous ces éléments chaque heure, parmi les outils SEO ?

Malheureusement non.

Il s'agit d'un nouveau type d'outils SEO pour l'instant très peu populaires auprès des référenceurs.
Les outils classiques permettent de chercher des mots clés, optimiser un contenu, crawler un site, vérifier son positionnement et bien encore de lister les backlinks.

Des solutions existent déjà aux USA comme Robotto ou bien encore Seoalarms mais sont très peu populaires en France.

Il y a un énorme travail évangélisation à faire. Toutefois, je suis convaincu depuis 3 ans que cela va devenir un standard du marché et qu'un jour aucun annonceur ou SEO n'imaginera travailler sans ce type d'outils.

La plupart des référenceurs utilisent des crawlers qu'ils lancent afin d'analyser les données chaque mois. Il existe des solutions SAAS comme botify ou oncrawl 2 solutions françaises (cocorico !) et des logiciels à installer comme XENU, ScreamingFrog, LinkExaminer... Ces très bons outils permettent d'obtenir des données identiques et même bien plus mais il n'est pas possible de les utiliser chaque heure.

Pourquoi c'est important, ce qu'on peut suivre et comment on peut le suivre

Il m'arrive d'échanger fréquemment avec des référenceurs qui m'indiquent que cela ne sert à rien.

Je pose alors systématiquement les même questions afin de savoir s'ils ont déjà eu les cas suivants :

Nom de domaine non renouvelé, erreur 404, URL modifiée, contenu SEO, Balise TITLE ou meta description qui sautent, mauvaise configuration d'une canonical ou d'un noindex, indexation d'une préproduction, déploiement d'un Disallow: / dans le robots.txt est la réponse est toujours la même : "Oui bien entendu".

La moindre de ces problèmes peuvent entraîner une baisse de visibilité très forte et des mois de galères par la suite pour essayer de retrouver les positions perdues.
C'est donc important de vérifier ces critères si le chiffre d'affaire généré par le SEO est important.

Pour vérifier cela, la méthode archaïque est de constater une baisse, lancer un audit, trouver le problème puis le faire corriger. Cela n'est pas très performant car la baisse a déjà eu lieu et... il est possible de ne pas réussir à identifier un problème sur un très gros sites.

Le référenceur passe aussi alors à coté des problèmes "temporaires". Par exemple, sur un ecommerce qui génère plus de 30 millions de CA via le SEO à l'année, nous avons découvert que tout le site était entièrement cassé 1 heure chaque nuit. Après enquête, de gros échanges de flux entre 3 et 4H du matin était responsable de cela.

Enfin, les référenceurs en agence travaillent généralement que quelques jours par mois pour chaque site. Parfois seulement 1 seul jour. Ils ne peuvent pas tout voir et encore moins tout vérifier chaque heure.

Est ce que cela se révèle souvent utile ?

Lorsque l'on déploie ce type de solutions de monitoring SEO onsite, il faut espérer recevoir aucune notification.
Malheureusement, il se passe toujours quelque chose.

Les exemples sont légions ! Serveur en 500 durant plusieurs heures un week end, Régression suite à une mise en production comme règles optimisation de balises TITLE qui ne s'appliquent plus, suppression de contenu ou changement d'URL suite à une intervention dans un back office...

Il y a aussi des notifications à la cause plus originale.

Par exemple, nous accompagnons plusieurs marques qui vendent en ligne du textile. Oseox Monitoring peut prévenir très rapidement le service E-merchandising si tous les produits d'une page de listings produits ont été vendus. Ainsi l'équipe peut intervenir dans l'heure afin de re-peupler la page concernée.

Il est aussi possible d'espionner ses concurrents et d'être informés très rapidement s'ils optimisent leur SEO mais à la base ce type d'outils n'est pas pensé pour cela.

Nous avons pris conscience de l’intérêt de ce type d'outils il y a 3 ans suite à 2 gros problèmes consécutives sur 2 sites marchands distincts.

Chez le premier, un des leader de le mode en ligne masculine, l’hébergeur, a pour une raison que l'on ignore, ajouté dans tous les entêtes HTTP une canonical désindexant l'intégralité du site. Il nous a fallu 1 semaine pour comprendre qu'il y avait un gros problème.

Chez le second, un site ecommerce dans le domaine de la mode pour enfant, un responsable de la conversion optimisait des libellés de filtres afin de les rendre plus attrayant pour les utilisateurs. Les URL étant construites via les libellés, cela changeait toutes les URL en même temps. Nous avons constaté les dégâts 15 jours après et la partie en terme de chiffre d'affaires a été évalué a plusieurs dizaines de milliers d'euros.

Nous nous sommes dit alors qu'il était impossible de continuer à travailler comme cela car les enjeux en terme de chiffres d'affaires et même d'emplois sont trop importants.

C'est à partir de ce moment que nous avons développé Oseox Monitoring.

Ne manquez pas les futurs articles via Twitter

A propos de l'éditeur d'Oseox.fr

Aurélien Bardon est un passionné de SEO. Il crée Outil-Referencement.com en 2005, Oseox.fr en 2008, fonde en 2009 l'agence SEO Aseox à Lille et lance en 2016 Oseox Software, une plateforme de logiciels SEO.

Oseox Monitoring