Résoudre les problèmes de crawl avant l’analyse de logs

Il y a quelques jours, j’ai eu un échange concernant l’analyse de logs avec un client qui m’a donné envie d’écrire ce billet.
Il se demandait pourquoi on réglait des problèmes de crawl avant d’analyser les logs et pourquoi on ne le faisait pas en même temps.

crawl seo
(Oui je fais dans l’humour aussi)

Je commence toujours par régler la majorité des problèmes de crawl avant d’envisager d’analyser les logs.

Voici les principales raisons :

  • Cela permet d’épurer les fichiers de pas mal d’erreurs, facilitera et accélérera l’analyse
  • C’est beaucoup plus simple
  • Les crawlers gratuits (ou payants) sont nombreux
  • Obtenir des logs peut prendre 12 mois sur certains projets
  • De nombreux problèmes sont visibles à la fois via le crawl et les logs
  • Il est facile de réaliser plusieurs crawls alors qu’obtenir plusieurs exports des logs…
  • Il n’y a rien à demander au client
  • Le client n’a pas à payer un autre prestataire (extraction de logs+parsing des bots+gestion de projet)
  • Obtenir des logs exploitables peut demander parfois de nombreux échanges (coûts gestion de projet + optimisations déployées plus tardivement)
  • Maintenance & Recette : Quand les dépôts de logs sont récurrents et automatisés, des bugs pourront arriver et arriveront… (#truestory)

En guise d’illustration, voici 3 exemples.

  • Pages en 404 (hors page orpheline : – )
  • Spidertrap ! (hum les facettes)
  • Liens internes pointant vers des redirections (hors redirections serveur non maillées)

En SEO, comme dans d’autres domaines, il faut parfois savoir identifier, se concentrer et prioriser les actions ayant le plus de valeur à court terme.

Dans tous les cas, vous l’aurez compris, ces 2 taches sont aussi complémentaires.

A propos d'Aurélien Bardon

Aurélien Bardon est un passionné du web. Après avoir évolué en agence et chez l'annonceur, il lance Oseox.fr en 2008 et fonde en 2009 l'agence Aseox.

Outil Referencement d'Oseox Monitoring