L’analyse de logs SEO consiste à étudier les fichiers journaux (logs) générés par le serveur web. Ces fichiers contiennent toutes les requêtes faites au serveur, y compris celles des bots de moteurs de recherche comme Googlebot. Elle permet de comprendre comment Google explore un site : quelles pages sont crawlées, à quelle fréquence, et lesquelles sont ignorées.
Google n’explore pas toutes les pages d’un site à chaque passage : il a un budget de crawl limité. L’analyse de logs révèle si ce budget est utilisé efficacement, identifie les pages crawlées inutilement et les pages importantes non visitées. C’est une approche avancée indispensable sur les sites de grande taille ou en e-commerce.
Une boutique e-commerce avec 50 000 produits découvre que 70 % du crawl est consommé par des pages de filtres inutiles. Grâce aux logs, elle bloque ces filtres via robots.txt et oriente Google vers les fiches produits, augmentant leur visibilité.