17 janvier 2022

Audit SEO : que doit-il contenir ?

Cet article présente l’utilité d’un audit SEO en précisant tous les éléments que l’on doit y retrouver. Vous pouvez en tout fin d’article, obtenir un exemple d’audit SEO que je peux produire : il vous suffit de remplir le formulaire. Je liste aussi en fin d’article, tous les outils (gratuits ou payants) que j’utilise. Si vous souhaitez y aller directement, il vous suffit de cliquer sur le lien dans la table des matières.

Mais tout d’abord voici ma définition d’un audit seo :

Un audit SEO d’un site internet est un ensemble de tests et de recueils de données qui permettront à un consultant en référencement naturel d’analyser les forces et les faiblesses du site dans une perspective d’amélioration de son classement dans les pages de résultats des moteurs de recherche avec des objectifs définis dans une durée mesurable.

Ma définition d’un audit SEO

Pourquoi faire un audit SEO ?

Réaliser un audit SEO de votre site web est le point de départ incontournable de toute stratégie SEO. Cette étude en profondeur du site web et de son environnement va permettre de comprendre quels sont les points forts du site en référencement naturel et ses points faibles. Bien sûr ce sont les facteurs qui pénalisent le site web dans son référencement qui vont faire l’objet de correction et qui composeront une partie de la stratégie SEO. Cette stratégie SEO peut s’enrichir d’actions nouvelles auxquelles le consultant SEO apportera la preuve de leur efficacité. Selon votre contexte, il faudra adapter celle-ci en fonction des différents moteurs de recherche surtout si le site web a des visées à l’international.

Quelles sont les étapes d’un audit SEO ?

Un consultant SEO va découper son audit du site internet en 3 étapes :

  1. un audit SEO technique
  2. un audit SEO de contenu
  3. un audit SEO des backlinks ou liens entrants

Ces 3 étapes sont incontournables. Selon les consultants SEO, elles pourront être complétées par des recommandations sur l’expérience utilisateur (UX) avec un point de focus sur la transformation (CRO ou Conversion Rate Optimization) notamment pour les sites e-commerce ou de génération de leads. D’autres aspects comme la visibilité sur les réseaux sociaux peut venir compléter l’audit SEO même si à priori, les réseaux sociaux n’ont pas d’effet direct sur le SEO mais plutôt sur votre notoriété et visibilité numérique.

Nous allons aborder dans cet article seulement les aspects SEO.

Audit SEO technique

Audit SEO technique : mettre les mains dans le cambouis du site web

En quoi consiste un audit SEO technique ?

Voici les points clés qui sont analysés lors d’un audit SEO technique.

L’indexation

En tout premier lieu, l’audit SEO technique va devoir s’assurer que rien n’entrave l’indexation de vos pages. Cette indexabilité des pages de votre site web est primordiale. Car sans indexation pas de référencement naturel et donc pas d’existence dans les moteurs de recherche et d’énormes difficultés à se faire connaitre du grand public.

A cette occasion on se penchera sur l’optimisation du budget de crawl. Le budget de crawl est un temps que Google attribue à son robot pour parcourir votre site en vue de l’indexer. Si vous utilisez Google Search Console, vous trouverez certaines informations qui vous renseigneront à ce sujet (notamment sur les demandes d’indexation).

Le budget de crawl peut être évalué en fonction du nombre de demandes d’indexation et du taux d’indexation (à calculer soi-même en croisant plusieurs données provenant d’outils comme un crawler, la commande site:votrenomdedomaine.com …). C’est un KPI qu’il faut suivre éventuellement pour un site récent.

Certains éléments peuvent influer négativement sur le budget de crawl que vous alloue Google :

  • des URL longues, complexes et peu interprétables avec des paramètres derrière un ?
  • des contenus sans fin : par exemple, un calendrier avec des liens sur chaque date.
  • des éléments indiquant un piratage (contenu spammy)
  • un nombre de liens exagérés sur chaque page (site web de type ferme à liens avec plusieurs centaines de liens externes sur une page)
  • des liens cassés, des boucles de redirection, des erreurs HTTP 500
  • des temps de chargement longs
  • l’usage de ressources inutiles au bon rendu de la page

Il n’est pas recommandé de vouloir indexer toutes les pages de votre site web. Donner des indications claires et précises au Google Bot (le robot d’indexation de Google) pour qu’il n’aille visiter que les pages qui ont un intérêt pour vos éventuels lecteurs. Pour cela, on peut utiliser le fichier robots.txt en indiquant un ou des répertoires à ne pas visiter. L’utilisation à bon escient de la balise robots dans les pages avec les attributs noindex et nofollow peut aussi aider à ce fléchage. La présence d’un plan de site (fichiers sitemaps XML ou une page HTML décrivant toute l’arborescence du site) se révèle aussi indispensable.

Mais attention : Google fait toujours un peu ce qu’il veut en la matière. Les instructions de votre robots.txt ne seront pas toujours respectées par GoogleBot.

Une analyse de log avec des outils spécialisés comme Screaming Log Analyzer (ou bien le SaaS Seolyzer ou plus cher la solution OnCrawl) doit vous permettre de savoir comment Google apprécie votre site et la fréquene de ses visites. Si GoogleBot vient rendre visite à votre site peu souvent (1 fois par mois ou moins), c’est qu’il y a certainement un problème.

L’audit technique permet aussi de mettre en évidence éventuellement des contenus dupliqués. Par exemple, le CMS WordPress et son système de tag produit naturellement du contenu dupliqué (même contenu présent sur différentes URL). Il faut faire la chasse au contenu dupliqué sur votre site. Ceci peut être fait de différentes façons :

  1. la suppression des contenus dupliqués (sans oublier les redirections),
  2. la gestion d’une balise canonique (X pages au contenu similaire avec une balise canonical identique),
  3. la présence de la balise robots (noindex) dans la page

Je suis partisan de la suppression qui clarifie les choses pour tout le monde.

La performance du rendu

Annoncé depuis longtemps comme devenant un des facteurs de référencement d’un site web, la performance web va devenir dans les mois à venir réellement un facteur de référencement. Google vient d’annoncer cela de manière plus insistante alors que beaucoup de SEO avaient contesté ce facteur lors de l’annonce faite par Google. La vitesse de chargement et la qualité de l’expérience utilisateur avec une navigation aisée et intuitive seront des éléments essentiels de l’audit SEO technique. Google Search Console peut vous donner des enseignements à ce sujet et est certainement la source d’information la plus importante pour votre gérer votre SEO technique.

Autre point important : Google est passé en index mobile-first depuis un certain temps (mars 2018). Cela veut dire que la version Mobile de votre site web (responsive) doit être priorisée par rapport à la version Desktop. En cela, le résultat fourni par les outils SEO d’audit de performance comme LightHouse et les actions correctives en vue d’améliorer ce résultat devront être priorisées pour la version mobile.

Le maillage interne

Les liens internes sont les premiers éléments d’une indexation réussie. En effet, une page dite orpheline (sans aucun lien interne pointant vers elle) aura beaucoup de difficulté à être indexée et à se classer. Les pages dites profondes c’est à dire assez éloigné en nombre de clics de la page d’accueil seront aussi difficiles à indexer et donc à classer dans les SERP.

Les liens internes sont la manière de distribuer le jus de liens (ou link juice en anglais) de manière intelligente et harmonieuse au sein de votre site web. Il existe aussi des structures ou organisations du contenu qui permettent d’améliorer grandement la performance SEO de votre site web : on parle alors de cocon sémantique, de silos de contenus ou encore de topical cluster. Toutes ces organisations de votre contenu et du maillage interne ont pour but d’optimiser ce maillage interne afin que quelques pages (dites piliers ou de haut de cocon) profitent au maximum du soutien de tous les autres contenus. Les outils de visualisation du maillage interne (présents dans Screaming Frog par exemple) aident à mettre en place une stratégie SEO d’amélioration du maillage interne.

Le maillage interne est un des tous premiers leviers d’amélioration de votre référencement naturel. C’est particulièrement le cas pour les gros sites e-commerce.

Améliorer la structure du site web

La structure d’un site web est arborescente. Une grosse majorité de sites web utilisent un menu. Le menu est répété sur toutes les pages de votre site web. De ce fait, ce sont souvent des liens sur des pages prioritaires. Dans le cadre de site e-commerce, le menu peut très vite se transformer en méga menu qu’il faudra travailler pour éviter une surabondance de liens internes dans toutes les pages. Les techniques d’obfuscation de liens doivent être envisagées dès que l’on arrive à plusieurs centaines de liens dans le menu. Le menu doit être rationalisé afin de conserver un certain équilibre entre liens entrants et liens sortants pour chaque page.

L’audit SEO de contenu

Audit SEO de contenu : la sémantique avant toute chose

C’est certainement aujourd’hui le point central de l’audit SEO. En effet, avec l’introduction d’algorithmes de plus en plus performants (BERT / MUM) basés sur l’intelligence artificielle et le deep learning, Google peut analyser votre contenu de manière détaillé et comprendre le champ sémantique de ce dernier. Et selon votre domaine d’activité, l’EAT (Expertise – Autorité – Confiance) sera très important notamment pour les sites dans les domaines YMYL (Your Money Your Life) c’est à dire la santé et les finances personnelles.

La qualité du contenu sur votre site doit être analysée avec soin.

Le titre et la méta description

Ce sont les éléments de base du référencement naturel qui sont obligatoirement audités : ils doivent être remplis, avec la bonne longueur (maximum de 70 caractères pour le titre et de 240 caractères pour la méta description), uniques et en rapport avec le contenu de la page. Même si la balise Meta Description ne sert pas directement le SEO, il est intéressant de remplir celle-ci avec un contenu en rapport avec celui de la page et une formulation qui incitera l’internaute à venir visiter la page. C’est le teasing du contenu de la page. Il y a certaines longueurs à respecter. Attention : depuis cet été, Google substitue parfois le contenu de votre balise Title par un contenu (pris dans la page comme le contenu de la balise H1 si il y en a une) qu’il juge comme plus pertinent. Il est préférable donc de le remplir pour ne pas laisser Google choisir à votre place. Il en va de même pour la méta-description.

Classer les contenus selon leur qualité

Toutes les pages de contenu doivent être analysées pour connaitre la pertinence de chacune d’entre elles dans votre stratégie de mots-clés.

Les outils SEO de crawling permettent de déterminer la longueur de vos contenus (nombre de mots). Les données Google Analytics vous donneront aussi la fréquentation de vos pages (nombre de sessions / durée de session). En croisant ces données, on arrive vite à découvrir quelles sont les pages avec des contenus pauvres qui ne vous apportent aucune visibilité et aucun trafic. Il ne faut pas hésiter à supprimer, fusionner des contenus pour ne conserver que ceux qui ont une chance de ranker. Chaque page doit avoir au moins un mot clé principal identifié. Et éventuellement, entre 10 et 20 expressions en relation sur lesquelles la page peut potentiellement rankée. Les objectifs de chaque page doivent être clairement identifiés : la page est elle là pour information, pour transformation (achat ou lead) ou pour navigation ?

En fonction de tous ces éléments, il faut adopter une politique SEO précise pour chacune des pages.

Trouver les bons mots-clés pour votre site web

Si votre site web a une certaine ancienneté, les données de Google Search Console vont vous renseigner sur les expressions de recherche avec lesquelles les internautes atterrissent sur votre site web. Cela donne une bonne idée de l’adéquation entre les mots clés sur lesquels vous souhaitez positionner votre site et les mots clés déterminés par l’algorithme de classement de Google. Si cette adéquation est parfaite, alors votre site web doit vous rapporter suffisamment de chiffres d’affaire ou de contacts. Votre visibilité web doit être en croissance. Mais même quand on atteint la première place sur Google, il est parfois difficile d’y rester et des dizaines de personnes n’ont qu’une ambition : vous passer devant. D’où la nécessite de suivre de manière régulière votre référencement naturel en surveillant votre positionnement (ranking).

Il est très intéressant aussi dans un audit de contenu d’analyser ce que fait votre concurrence directe. Vous devez trouver les trous dans le référencement naturel de votre site, les expressions sur lesquelles votre site est mal classé. L’objectif est bien de couvrir un large spectre d’expressions ou de mots clés qui vont vous permettre d’asseoir votre notoriété et votre positionnement. On parle aussi de longue traîne c’est à dire qu’il vous faut positionner votre site sur des expressions complexes en langage naturel contenant 4 ou 5 mots minimum.

Il est très intéressant dans un audit SEO de contenu d’analyser les 2 ou 3 pages les plus importantes de votre site afin de calculer la performance sémantique de votre contenu. Les outils d’aide à la rédaction optimisée (style YourTextGuru) sont indispensables pour obtenir des résultats probants en SEO.

Tout cela pour dire qu’il faut un travail d’analyse méthodique du contenu, suivi à l’aide d’un tableau de bord et des checklist pour obtenir des résultats. Et corriger en permanence dès que les objectifs ne sont pas atteints.

L’audit SEO des liens entrants (backlinks)

Les backlinks c'est le fléchage pour Google Bot qui assurera la notoriété de votre site

Les algorithmes de Google qui participent au classement des sites sur un mot clé principal ou une expression de recherche se basent sur plusieurs signaux. L’un d’entre eux qui est pris en compte depuis très longtemps est le nombre de liens entrants et la qualité des sites qui ont un lien entrant vers votre site.

Google Penguin est une des mises à jour de Google (mise à jour qui date de 2016) les plus importantes qui a corrigé les dérives du netlinking ces dernières années. Mais il faut bien comprendre que ce critère est un des critères clés pour juger de la pertinence d’un page sur une requête de recherche. Il y a 2 aspects à gérer : le premier consiste à une analyse technique des liens entrants afin de déterminer si il n’y a pas de liens qui peuvent pénaliser votre SEO et le deuxième permet d’élaborer une stratégie d’acquisition de liens de manière naturelle ou bien par l’achat de liens. Cette dernière pratique est fortement désapprouvé par Google et peut amener votre site à subir une pénalité manuelle qui le fera sortir de l’index Google. Il faut agir avec intelligence pour rester en dessous des radars et simuler une acquisition naturelle.

Examiner les backlinks

J’utilise une excellente plateforme française (un SaaS) pour cela : Babbar. Il suffit de saisir l’URL de votre site internet (de préférence avec le sous-domaine www) pour obtenir des métriques (notamment le BAS pour Babbar Authority Score) qui vous renseignent sur le nombre et la qualité de vos backlinks. Vous pouvez lister toutes les URL qui pointent vers votre site. C’est bien l’URL de la page (et le type de lien : texte, image) qui est analysée pour indiquer quelle force induite dans votre référencement cette dernière vous procure.

Google Search Console vous indique aussi une liste de liens pointant vers le vôtre. Mais il n’y a pas d’indicateurs qualitatifs.

D’autres outils SEO comme Majestic ou Moz fournissent des métriques spécifiques : TF (Trust Flow) et CF (Citation Flow) pour Majestic, DA (Domain Authority) et PA (Page Authority) pour Moz. Mais ces métriques peuvent être perturbées par des pratiques black-hat destinées à faire grimper ces indicateurs pour augmenter la valeur d’un site dans le cadre de son éventuelle revente. Il faut comme toujours croiser ces informations avec d’autres pour pouvoir déterminer des tendances et ne pas prendre forcément ces données comme argent comptant.

Pourquoi je ne fais pas d’audit SEO gratuit ?

On voit régulièrement des tas d’outils qui vous permettent de faire un audit seo de manière gratuite. Je vous avais partagé des extensions qui peuvent vous aider à réaliser un audit seo gratuit. Certains de mes confrères ou agences SEO ont fait le choix de ne pas facturer cette prestation. Ce n’est pas mon cas. En effet, les audits SEO gratuits sont essentiellement basés sur des outils qui font des analyses basiques (longueur des balises Title et Meta Description, bonne hiérarchisation des headers). Ce qui est important dans l’audit SEO que je vais vous fournir, c’est le plan d’actions que je vous propose à la fin avec un chiffrage estimé (note de A à D) et un délai de réalisation (CT à LT).

A la fin de mon audit, vous avez une véritable feuille de route pour atteindre des objectifs précis. Il ne reste plus qu’à discuter des modalités de mise en application des recommandations.

Pourquoi faire appel à un consultant SEO ?

L’audit SEO est une base de travail. Il doit permettre d’établir une stratégie SEO claire pour au moins 6 mois voire une année.

N’hésitez pas à faire appel à mes services pour cette étape incontournable de votre stratégie SEO.

CTA Audit SEO

En remplissant le formulaire ci-dessous, je peux vous fournir un exemple d’audit SEO que je produis. Ce rapport d’audit est livré au client ainsi que tous les fichiers résultats du crawler ou productions effectuées (Google Sheets / Data Studio) pendant l’audit SEO.

Votre adresse mail ne sera ni revendue ni louée.

Les 35 points audités (à minima)

  1. Balise Title : contenu, longueur, unicité
  2. Balise Meta Description : contenu, longueur, unicité
  3. Liens cassés : code HTTP 404
  4. Erreurs serveur : code HTTP 500
  5. Redirections : code HTTP 3xx . Contrôle qu’il n’y ait pas de boucle de redirection
  6. URL en HTTP : il ne faut plus d’URL en HTTP sur votre site si vous avez un certificat
  7. URL externes : utilité / code erreur
  8. Redirection propre des URL en HTTP vers les mêmes URL en HTTPS
  9. Fichier .htaccess pour les redirections, l’URL rewriting, le leverage cache browsing
  10. Fichier robots.txt : présence / contenu (déclaration du sitemap) / règles effectives
  11. Liste des URL bloqués par le robots.txt
  12. Liste des URL bloqués par la balise noindex
  13. Existence d’une page d’erreur 404
  14. Poids des images (liste des images faisant plus de 100 ko)
  15. Longueur des URL et usage de caractères accentués (encodage)
  16. Utilisation du protocole AMP
  17. Utilisation d’un fil d’ariane
  18. Présence de données structurées (Rich Snippet) – Validité du code généré
  19. Fichiers Sitemaps : généré par un plugin / constitution manuelle / comparaison des URL contenus dans le sitemap avec la liste issue du crawl
  20. Fichier .htaccess : déclaration du sitemap index / contenu / à surveiller particulièrement avec WordPress
  21. Analyse profondeur des pages (si beaucoup de pages sont à plus de 3 clics de la page d’accueil il faut creuser le sujet)
  22. Analyse de la performance (page d’accueil + site)
  23. Structure de la page d’accueil : titrage (Hx) / contenu / menu / liens internes / liens externes / header / footer
  24. Structure du site : silos de contenu (outil de visualisation)
  25. Signaux web essentiels (LCP / FID / CLS)
  26. Ergonomie mobile : étude des templates de page notamment pour les sites e-commerce
  27. Erreurs présentes dans la Google Search Console
  28. Etude du taux de rebond dans Google Analytics
  29. Analyse du cache Google (‘cache:nomdusite’ dans Google)
  30. Contrôle de l’antériorité du domaine sous Wayback Machine : trouver un éventuel piratage / spam
  31. Test de différentes requêtes comme Nom de marque + Arnaque / Cialis / Viagra
  32. Recherche de liens internes potentiels avec Screaming Frog
  33. Contrôle de la minification des fichiers CSS et JS
  34. Qualité des données recueillies sous Google Analytics (distinction des canaux, analytics AMP, événements)
  35. Test du bon référencement de la marque

Outils que j’utilise lors de l’audit SEO

Cette liste d’outils varie au fur et à mesure que je trouve les outils performants pour un prix raisonnable.

  • Screaming Frog : crawler et analyseur de logs
  • SEOLyzer : analyseur de logs
  • Cocon.se : permet de visualiser la structure d’un site suivant son maillage
  • EZword.info : gestion des méta-mots concept sur lequel s’appuie le cocon sémantique
  • YourTextGuru : outil d’aide à la rédaction optimisée SEO
  • Babbar : outil d’analyse et de recherche de backlink
  • Majestic SEO : outil d’analyse des backlinks (Trust Flow / Citation Flow)
  • SurferSEO : outil d’aide à la rédaction optimisée SEO. Plugin intégré avec WordPress
  • Pingdom + LightHouse : analyse des performances site web (Core Web Vitals)
  • Suite Google : Google Search Console / Google Analytics / Google Data Studio / Page Speed / Test d’optimisation mobile / Google My Business
  • Advanced Web Ranking / CheckPosition / Semnaut pour le suivi de positionnement
  • Versions gratuites de SemRush / Ahrefs / Moz
  • Haloscan : mots-clés d’un site / historique de positionnement / mode bulk
  • Pour des infos si il n’y pas de Google Analytics : SimilarWeb
  • Pour des infos sur l’architecture technique : BuildWith ou WhatCMS
  • Browseo pour afficher le rendu de la page comme un robot
  • Des tas d’extension Chrome : WooRank / SEOQuake / KeywordsAnywhere / …
  • Des sites pour trouver des idées de contenu comme AnswerThePublic , UberSuggest
  • Des outils d’organisation comme Notion, Trello, XMind (outil de mindmapping)
  • Outil de scraping : ScrapeBox
  • Yooda Insights pour déterminer le nombre d’expressions sur lesquelles votre site ranke
  • Référencement local avec des tests géolocalisés (paramètre near dans la recherche Google)