Quand on parle de la Masse Noire, ce que tout le monde a à l'esprit est celle de la "masse noire" dans le domaine de l’ astrophysique. Comment cela est-il possible ? Cela peut surprendre, mais c’est un terme de recherche (Google, Bing ...). Dans le milieu du marketing numérique, il s'agit des URL de sites web susceptibles d'être indexés par les moteurs de recherche, mais dont les pages perdent naturellement du trafic en raison d'un manque de référencement de qualité.
Avant d'expliquer comment vous pouvez éliminer les points noirs, rappelez ce que sont l'indexation et le crawling et ce qu'est un budget de crawling.
Le crawling
Les moteurs de recherche, comme Google, font usage des bots pour indexer les pages web. Ces robots examinent la structure et le contenu d'un site web et le placent ensuite sur la page des résultats de recherche. C'est ce qu'on appelle le "crawling".
En effet, le nombre de pages et le temps qu'il faut aux araignées des moteurs de recherche pour les explorer sont appelés le budget d'exploration et ils sont déterminés par divers critères établis par les moteurs de recherche. Le crawling change d'un site à l'autre et dépend de la profondeur du site, du temps de réponse du serveur, de l’effectif des pages du site, et de la fréquence de publication du contenu. Tous ces facteurs ont une incidence sur le budget du chenal. Tous ces facteurs ont aussi une incidence sur le budget des rampes. Tous ces facteurs influent également sur le budget de crawl (temps + fréquence de passage des bots).
La qualité du contenu d'un site web repose sur l'optimisation de l'arborescence, la richesse du texte sémantique (H1, balises, etc.), la méta-édition, la structure interne de la page, les URL optimales, les redirections, les liens externes etc.
Comment peut-on les reconnaître ?
Outils spéciaux de suivi du référencement comme SEM Rush :
La première étape pour détecter cette masse est d'utiliser un outil qui vous aidera à identifier ce que vous devez faire pour optimiser votre site pour le référencement. De nombreux outils gratuits ou freemium existent, notamment Screaming Frog, Google Search Console, Semrush.
Semrush : Semrush analyse les journaux de votre site et mesure la fréquence à laquelle les bots de google et autres visitent votre site.
Console de recherche Google : C'est un outil important pour identifier les masses noires qui fournit une foule d'informations, notamment des erreurs, des avertissements et des liens vers des URL bloquées. Si une URL donne un message d'erreur ou est bloquée, il s'agit bien d'une masse noire.
Google Analytics : Avec Google Analytics, d'autres statistiques peuvent être consultés à l’instar de l’effectif des visiteurs de chaque page. Cela comprend le nombre de pages vues, les pages vues uniques, le taux de rejet et les personnes quittant la page, le temps moyen passé sur chaque page. Les pages qui ne sont pas visitées pendant de longues périodes peuvent avoir un impact négatif sur le référencement d'un site, indiquant que le site est inefficace ou que son contenu n'attire pas les utilisateurs.
Les manières de résoudre le problème lié à la masse noire
À l'aide des outils ci-dessus et des données que vous fournissez, vous pouvez identifier les pages qui doivent être optimisées, les pages des fournisseurs, les avis juridiques, les politiques de confidentialité, les conditions d'utilisation et d'autres pages improbables, ainsi que les images et les PDF. Comme ces pages ne sont pas pertinentes pour les recommandations naturelles de votre site, il est préférable de les supprimer de l'index et d'optimiser votre budget pour indexer les pages les plus importantes.
Vous avez maintenant toutes les clés pour commencer à optimiser votre masse noire.