Sélectionner une page
Comment booster son SEO avec l’analyse des logs ? 11

Comment booster son SEO avec l’analyse des logs ?

Les logs que l’on exploite en SEO se situent dans des répertoires bien spécifiques sur des serveurs spécifiques. Si les logs étaient utilisés à l’origine afin de suivre le comportement des internautes ainsi que des robots des moteurs de recherches, ils sont également utilisés pour le SEO et l’optimisation du budget marketing en ce moment. Il n’est pas toujours facile d’y accéder, mais cela est fonction des configurations du serveur. Pour aider les clients, la plupart des hébergeurs mutualistes mettent en place des guides afin de leur faciliter l’accès. Toutefois, il est conseillé de faire appel à des spécialistes en la matière, car dans la plupart du temps, le parcours n’est pas balisé. Et pour faciliter l’interprétation et le traitement des logs, il faut se servir d’un outil spécifique comme le Logstash ou le Kelogs. En les décryptant, on peut obtenir des informations périphériques dont vous pouvez vous servir afin de booster votre SEO.

Analyse de maillage interne

Pour les robots de moteur de recherches, le maillage interne leur sert de guide. En effet, ce sont ces liens internes qui permettent aux robots de moteurs de recherche de parcourir systématiquement toutes les pages d’un site qui ont un rapport avec les mots clés tapés par les internautes. On le compare souvent à un homme fou qui ne cesse de naviguer sur internet et qu’on ne peut arrêter qu’en cas d’erreurs ou d’incohérences.
Lorsqu’on entend les termes suivre les logs des robots de recherche sur un site, on insinue une analyse de son maillage interne. Ici, on fait référence à l’analyse Aymeric Bouillat. Dans cette étude, on peut déterminer si le parcourt des robots de moteur de recherche se déroule normalement. Dans le cas contraire, on saura donc qu’il y a une faille dans le maillage et qu’il faut réparer.

Envoyer le contenu au bon moment

Dans cette partie, on va faire allusion à la fenêtre de crawl, un concept qui a été théorisé par des experts en SEO. Il s’agit, en effet, du nombre de jours moyens qui sera nécessaire aux robots de moteurs de recherche pour faire le tour d’un maximum de pourcentage des URLs d’un site. Autrement dit, toutes les URLs doivent être crawlées au moins une fois durant cette période. Pour une fenêtre de crawl de 28 jours, les robots de moteur de recherche mettront donc quatre semaines à revenir sur une même page.
Cette information reste importante en référencement, car elle permet de déterminer le temps durant laquelle une mise à jour va se propager et avoir un impact sur le positionnement du site. Cela permet également au référenceur de savoir quel est le meilleur moment pour effectuer une mise à jour. Ensuite, le fait de connaitre ce délai va aussi lui permettre de publier librement des contenus au bon moment. Enfin, pour assurer une bonne visibilité sur la page des résultats de recherches, le contenu ne doit être publié ni trop top, ni trop tard.
Obtenir le meilleur taux de crawl possible constitue un des objectifs des référenceur. Cela veut dire que les robots de moteur de recherche visitent toutes les pages utiles et pertinentes du site sans trainer avec des pages qui sont inutiles. Pour optimiser le passage des robots, ce dont on a à faire c’est donc de supprimer toutes les pages inutiles. Cela permettra aux robots d’effectuer leurs tâches plus rapidement et plus efficacement.

Repérage du hotlinking

Ce dont les référenceurs expérimentés cherchent à éviter, c’est que les robots de moteur de recherches mettent trop de temps pour faire le tour de toutes les pages d’un site. Ils cherchent ainsi des moyens pour réduire cette fenêtre de crawl en éliminant tout ce qui pourrait attribuer au ralentissement du travail des robots de moteur de recherches. Pour cela, on identifie le budget Adwords qui est gaspillé suite à des erreurs de serveurs ou bien à des pages qui sont trop lentes.
En effet, il existe deux méthodes dont les utilisateurs peuvent se servir lorsqu’ils veulent intégrer une ou plusieurs images sur son site. Ils peuvent le faire, soit par téléchargement direct de l’image, soit par une insertion de l’URL de l’image sur le web. Dans le second cas, les utilisateurs vont afficher à partir d’URL d’image du site externe, des images sur son propre site. Les informaticiens ont appelé ce pratique bordeline un “hotlinking”.
Cette deuxième technique, par contre, laisse des traces sur le site externe auquel l’utilisateur a pris l’image. À chaque fois que l’image apparait sur l’écran d’un internaute, cela déclenche un appel vers le site ou cette image a été déclenchée. Cette méthode est régulièrement utilisée par un consultant chez SEO hackers, nommé Aymeric Bouillat pour réclamer des backlinks.

Trouver les erreurs afin de les supprimer

Les erreurs sur les pages font également partie des causes qui peuvent ralentir ou rompre le travail des robots de moteur de recherches. Quant à la réputation du site, cela ne forme pas une bonne image envers les clients. C’est pour cette raison que Quentin Adt qui fait partie des analystes de logs orientés ROI a décidé de mesurer les manques à gagner dus aux erreurs.
Cette méthode s’adresse aux utilisateurs, qu’ils fassent du référencement naturel ou payant. Pour les utilisateurs du référencement payant, cette technique leur permet d’identifier le budget Adwords gaspillé, que ce soit par erreur de serveurs ou de page trop lente. Elle identifie également la perte de chiffre d’affaires dû aux erreurs citées ou d’autres erreurs sur le canal SEO.
De ce fait, les logs sont triés soit en ligne de commande, soit grâce à un outil spécifique qui lui permettra d’isoler les pages répondant par un statut d’erreur HTTP ou l’URL contient les lettres « gclid ». Indéniablement, ces informations sont utiles, car elles permettent de mesurer le nombre de visites issues du SEA par page qui ont débouché sur une erreur. C’est cette opération que l’on renouvelle pour chaque page d’erreur qui donne une idée sur le budget total perdu.