Sélectionner une page

Chute du trafic ? 11 raisons possibles

décembre 19, 2021

La cause la plus fréquente d’une baisse soudaine du trafic sur un site Web est une récente mise à jour de l’algorithme de recherche. Les pénalités, les redirections, les règles incorrectes du fichier robots.txt et les pertes de classement sont toutes d’autres raisons légitimes pour lesquelles vous pouvez constater une baisse du trafic sur votre site Web.

Heureusement, dans la plupart des cas, si vous êtes affecté par une baisse soudaine du trafic, vous pouvez vérifier quelques éléments en plus de ce que j’ai mentionné ci-dessus. Espérons qu’à la fin, vous serez en mesure de diagnostiquer pourquoi les choses ont pu changer.

Liste de contrôle de perte de trafic sur le site Web

Voici 11 points que j’aime vérifier si je remarque qu’un site connaît une baisse des visites mensuelles ou une baisse soudaine du trafic :

  1. Mises à jour des algorithmes
  2. Erreurs de suivi
  3. Règles Robots.txt
  4. Redirections
  5. Erreurs d’exploration
  6. Pertes de classement
  7. Modifications du plan de site XML
  8. Pénalités manuelles
  9. Désindexation
  10. Cannibalisation
  11. Modifications de la mise en page SERP

1. Mises à jour Google

Google ne cache pas qu’il publie plusieurs mises à jour tout au long de l’année, certaines plus importantes que d’autres. Malheureusement, essayer d’obtenir des détails solides sur les changements revient franchement à essayer d’obtenir du sang d’une pierre.

Cependant, un moyen simple de déterminer si votre site a pu être impacté par une mise à jour de l’algorithme est de garder un œil attentif sur les changements confirmés de Google lui-même.

Mais, de loin, le moyen le plus simple d’obtenir des informations sur les changements d’algorithme est d’utiliser des outils tels que Mozcast  – de Moz.com et le  capteur  SEMrush de SEMrush. Si aucun de ceux-ci ne vous plaît ,  Algoroo  est un autre outil de suivi d’algorithmes disponible gratuitement.

Si vous constatez qu’il y a effectivement eu une mise à jour récente, je vous recommande fortement de passer un peu de temps à analyser les sites qui ont été le plus touchés. Essayez de repérer toute corrélation entre eux et assurez-vous que votre site ne subit pas le même sort.

2. Erreurs de suivi / tracking

Même maintenant, je suis étonné de voir combien de webmasters et de propriétaires de sites parviennent à extraire leurs codes de suivi du site et se demandent pourquoi le trafic plonge.

Heureusement, c’est une erreur qui peut être facilement corrigée, mais à long terme, vous passerez à côté de données – donc plus vite vous la repérerez et la trierez, mieux ce sera !

Si vous remarquez qu’aucune session n’est soudainement enregistrée dans Google Analytics ou qu’une balise ne se déclenche pas, il est probable que les codes de suivi contiennent une erreur ou aient été entièrement supprimés. Si vous y avez accès, vérifiez que le code est présent et correct.

Vous pouvez également contacter vos développeurs et confirmer que le code de suivi est  là où il doit être et qu’il fonctionne .

3. Robots.txt

Êtes-vous sûr que votre site n’empêche pas les moteurs de recherche d’explorer le fichier robots.txt ?

Il n’est pas rare que les développeurs laissent les fichiers robots.txt inchangés après la migration à partir d’un site Web de développement ou de transfert. La plupart du temps, lorsque cela se produit, c’est complètement accidentel.

Accédez au fichier robots.txt de votre site et assurez-vous que la règle suivante n’est pas présente :

Exemple de fichier robots.txt

Si c’est le cas, vous devrez supprimer la règle d’interdiction et renvoyer votre fichier robots.txt via  Google Search Console et le testeur robots.txt .

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Découvrez aussi …

Qu’est-ce le SEO et comment fonctionne t-il ?

Qu’est-ce le SEO et comment fonctionne t-il ?

Vous souhaitez comprendre ce qu'est le SEO et son fonctionnement ? Bonne nouvelle, vous êtes au bon endroit. Nous vous avons concocté un guide simple, concis et efficace pour mieux appréhender le SEO et ses enjeux.L'une des questions les plus fréquentes parmi nos...

Comment pousser Google à crawler vos sitemaps ?

Comment pousser Google à crawler vos sitemaps ?

Si vous êtes SEO, vous savez que les sitemaps XML sont importants pour le crawl et l'indexation de vos pages. Il existe plusieurs enjeux majeurs à travers les sitemaps XML : Les urls poussées dans les sitemaps doivent regroupées vos pages importantes d'un point de vue...

10 principes UX à connaître

10 principes UX à connaître

L'UX au service de votre site web Créer un site web n'est pas chose aisée. Cela exige un parfaite compréhension et analyse de la cible. Selon vous serez amener à adapter la navigation, le style ou encore le wording de votre site. Cependant, certaines règles restent...

How to create XML Sitemap with R

How to create XML Sitemap with R

XML sitemaps are must have when you want to make sure Google crawl your pages. To create XML sitemaps, it exists multiple free and paid solutions. Well, this article will show you how to create XML sitemaps for free with a simple R script. This method does not need to...