Analyse de logs : partie intégrante d’un SEO réussi

le

Peu de projets d’analyse de logs sont menés aujourd’hui en France. Il existe deux façons de l’aborder : l’archivage des logs d’une part, leur exploitation d’autre part.

Il a bien un sujet dont on entend peu parler dans le monde du SEO et qui, pourtant, démontre toute sa pertinence et son efficacité lorsqu’on l’utilise : l’analyse de logs. John Mueller, Webmaster Trends Analyst chez Google, le dit lui-même « les logs sont trop peu utilisés ».

Qu’est-ce qu’un log ?

Si on passera quelques détails techniques pour ne pas vous décourager dès le deuxième paragraphe, on retiendra qu’un log correspond à une connexion. Dès qu’un internaute atterrit sur une page de votre site web, un log s’ajoute dans le fichier de logs du jour. Il en est de même pour Googlebot lorsqu’il vient sur les pages de votre site : sa visite est consignée dans le fichier de logs.

Nul doute que vous commencez désormais à comprendre tout l’intérêt de récupérer ce type de fichier pour l’analyser.

Que peut-on apprendre au travers de l’analyse des logs ?

Une fois que vous aurez trié et organisé vos logs (manuellement avec Excel ou avec un outil spécifique comme Botify ou OnCrawl), vous aurez une vue précise de ce que fait Googlebot sur votre site web. Autant dire que c’est un excellent moyen pour penser vos prochaines optimisations de SEO. Vous saurez exactement où intervenir pour optimiser telle ou telle page de votre site.

On dit souvent, à raison, que le SEO n’est pas une science exacte mais avec l’analyse de logs, vous avez une vue tangible sur les efforts à produire pour améliorer la pertinence de vos pages.

Plus concrètement, vous aurez une vue précise sur les éléments suivants (et la liste n’est pas exhaustive) :

  • Quelles sont les pages qui sont vues par Googlebot et combien de fois elles le sont (sur une période donnée),
  • Combien de pages retournent un code d’erreur 404 et sur lesquelles Googlebot perd son temps,
  • Fréquence de crawl sur la période analysée,
  • Etc.

De la nécessité de corréler les données de l’analyse de logs à d’autres sources de données

Seule, l’analyse de logs est riche en informations et permet d’avoir suffisamment d’optimisations SEO on page à mener pour rester en haleine. Toutefois, en associant à cette analyse les données de crawl (profondeur de page, nombre de mots, etc.) et les données Analytics (visites SEO par page), on obtient une corrélation qui permet de comprendre précisément ce qui n’est pas efficient et, à contrario, ce qui est optimal.

On obtient une vue précise sur tout un panel d’éléments. Dès lors, l’optimisation SEO n’est plus un sujet abstrait mais permet de pointer du doigt des pages précises avec des accusations solides.

La corrélation permet donc de connaître :

  • Les pages orphelines c’est-à-dire les pages qui ne reçoivent pas de trafic et qui ne sont pas crawlées. Vous perdez peut-être déjà du temps à les optimiser « dans le vide »,
  • L’influence du nombre de mots couplée à la profondeur de page sur le crawl de Googlebot,
  • Etc.

Quelle leçon en tirer ?

En définitive, la pratique du référencement naturel est une partie de poker sans fin où les cartes sont sans cesse rebattues. Si elle peut être considérée comme une technique avancée et gourmande en termes de temps, l’analyse de logs est certainement le seul et unique moyen qui permet de voir et de comprendre le comportement de Googlebot sur son site web.