Certification SEO : ce qu’il vous faut savoir

Comme tout bon consultant SEO, il est impératif de faire la preuve de son savoir faire. Je me suis mis en tête de passer des certifications dans le domaine du SEO. L’association SEO Camp bien connue de tous les référenceurs de Montpellier et d’ailleurs, propose depuis un certain temps 2 niveaux de certification : le QASEO (qualification d’aptitude au SEO) et le CESEO (Certification Expert SEO). J’ai effectué un premier galop d’essai en passant, sans préparation, la QASEO une première fois au mois de juin. Pas de miracle : je n’ai pas obtenu la QASEO malgré un score honorable de 65% de bonnes réponses (il faut en obtenir 80% pour obtenir la certification).

Bien que maîtrisant tous les fondamentaux du SEO, cet examen sous forme de QCM m’a permis de voir que j’avais quelques lacunes dans certains domaines du SEO et je vais y travailler dessus. Je rassure mes clients : ces lacunes ne sont que des questions de connaissance de culture générale SEO. Je vous présente des informations en lien avec le SEO qui ont fait l’objet de questions lors de l’examen QASEO.

Les mises à jour de Google

On est bien d’accord : il n’y pas un mais plusieurs algorithmes Google. On soupçonne même que la globalité du système des résultats de recherche ne soit plus complètement maîtrisé par une seule équipe. Je vais vous parler des mises à jour les plus importantes de Google, le moteur de recherche préféré des Français (à peu près 95% de parts de marché en France).

Google Core Update

Google lui a donné les petits noms de Fred ou de Medic ou de Phantom encore mais il utilise le nom de Core Update suivi du mois actuellement. La dernière mise à jour de cet algorithme a eu lieu au mois de juin de cette année. Ces améliorations n’ont pas une cible précise autre que celle d’améliorer en permanence, la pertinence des résultats de recherche. Ces mises à jour n’ont pour objectif selon Google, que de mieux récompenser les fournisseurs de contenu à haute valeur ajoutée. Cette dernière mise à jour concernait essentiellement les sites YMYL (Your Money / Your Life) c’est à dire les sites au contenu qui peuvent avoir un effet sur votre vie (santé et finances essentiellement). C’est ainsi qu’est apparu le concept E-A-T pour Expertise, Authoritativeness (Autorité) et Trust (Crédibilité) en début d’année qui a fait beaucoup parlé dans la communauté SEO ces derniers temps (août 2018 avec un impact fort et mars 2019). Ce concept E-A-T est la mécanique qui montre la pertinence de votre contenu à Google et la crédibilité de votre réponse. Un des éléments transmis par Google est le document Quality Rater Guidelines qui indique comment fournir des réponses pertinentes à Google.

Pour suivre les évolutions, il est important de suivre les comptes Twitter @searchliaison et de Danny Sullivan @dannysullivan . Vous pouvez aussi suivre les infos distillées par Google.

Panda

C’est une mise à jour qui a démarré 2011 et dont la dernière évolution date de 2015. Ce sont les premières mises à jour qui intègrent le machine learning. Par contre, les modifications ne sont pas intégrées en temps réel. Son principal objectif est d’éliminer les sites de type ferme de contenu et les sites basés sur du contenu scrapé (aspiration de contenu sans autorisation). Son principal impact a été de faire dégringoler certains agrégateurs de contenu, les comparateurs de prix, les forums de type Q/A (Questions / Réponses). Panda analyse le contenu mais aussi le comportement utilisateur notamment en surveillant le pogosticking c’est à dire le comportement de l’utilisateur sur une SERP en analysant le fait que l’internaute revienne sur la SERP après une première lecture rapide sur la page consultée.

Penguin

Penguin a pour objectif d’éliminer la sur-optimisation du référencement (keyword stuffing ou bourrage de mots-clés) et notamment les stratégies de liens entrants (nombre de liens en provenance de sites à faible autorité / liens spammy) et le cloaking (présentation d’un contenu différent selon le User-Agent du browser). La sanction Penguin peut être partielle sur un site : ainsi, une partie du site, considéré comme de mauvaise qualité par Google selon le filtre Penguin, peut perdre énormément de positions dans les SERP. La sanction Penguin peut être une sanction manuelle qui sera tracée dans la Search Console. Pour se sortir d’une sanction Penguin, vous pouvez améliorer la qualité de vos backlinks en désavouant certains liens auprès de Google et demander un réexamen auprès d’un Quality Rater via la Search Console.

Index mobile first

Ce n’est pas à proprement parlé un algorithme mais un changement de priorité dans l’indexation. La version desktop n’est plus la version prioritaire pour Google dans son indexation depuis mars 2018. Normalement, un message vous a été adressé à ce sujet via la Google Search Console. Vous pouvez tester l’aperçu de la version mobile de votre site via cet outil Google.

HummingBird / Colibri

C’est la mise à jour la plus importante subi par l’algorithme de Google. Elle date de septembre 2013 même si la mise à jour avait été commencé au préalable. Son objectif est de mieux interpréter le contenu d’un site notamment en se basant sur des règles sémantiques, en utilisant par exemple l’analogie synonymique. Cette mise à jour a permis de faire apparaître la notion d’intentionnalité (d’information, de navigation et de transaction). Cette mise à jour a permis aussi à Google de fournir des réponses à des questions plutôt posées en langage naturel comme « Quelle sera la météo de la semaine à Paris ? » qui n’impliquera pas forcément un clic de la part de l’internaute.

Exemple de résultat fourni par Google suite à une mise à jour Google Colibri

Rankbrain

Cette algorithme est mis en place depuis 2015. RankBrain est un algorithme qui intègre les technologies d’intelligence artificielle et notamment le machine learning en intégrant les nouvelles requêtes (environ 15% des recherches quotidiennes). D’après Google, aucune optimisation pour RankBrain n’est possible.

Balise Méta Robots

La balise méta robots est une balise qui se trouve dans le Header afin de transmettre des instructions aux bots d’indexation. Vous pouvez spécifier des instructions particulières en changeant le nom de la balise (robots en l’occurence) par le nom du bot visé. Par exemple, la balise méta name= »googlebot » va indiquer des instructions spécifiques au robot de Google.

Les principales balises sont :

  • noindex : indique au robot que la page ne doit pas être présente dans l’index. Mais la page est crawlée par les robots. La désindexation n’est pas immédiate.
  • nofollow : indique au robot qu’il ne faut pas qu’il suive les hyperliens présents dans la page.
  • none : cumule les effets du noindex et du nofollow.
  • noarchive : ne permet l’accès à la version en cache du contenu. Cette balise peut être utilisée pour les sites web qui proposent du contenu payant.
  • notranslate : pour interdire qu’une version traduite de la page soit proposée dans les résultats.

Le fichier Sitemaps

Un sitemap ne peut lister qu’au maximum 50 000 URL et la taille du fichier XML ne doit pas dépasser 50 Mo (

Si vous souhaitez préciser des versions linguistiques différentes pour une même URL, il est possible de le faire directement dans votre sitemap XML en suivant ces conventions.

Vos fichiers Sitemap doivent utiliser un codage UTF-8.

N-Gramme et Entité nommée

Alors je dois dire que j’ai été assez surpris par ces questions. Elles font référence à des principes mathématiques utilisés dans la linguistique et plus particulièrement dans le traitement automatique du langage naturel (TALN).

Un N-gramme est une sous-séquence d’une chaîne de caractères. Une phrase est constituée de de N-grammes que sont les mots. En fonction du nombre d’occurrences de N-gramme extraits d’un texte, on peut arriver à déterminer le sens du texte.

Des librairies spécifiques (NLTK par exemple pour Natural Language ToolKit) de langage tels que Python permet de déterminer l’ensemble des N-grammes d’un texte ainsi que leur nombre d’occurences. C’est utile pour déterminer le sens d’un texte d’une page tel que peut le comprendre un robot.

Une entité nommée est une appellation générique utilisée pour la catégorisation d’un certain nombres d’objets textuels rencontrés dans un document. Cette appellation recouvre par exemple les noms de personnes, des lieux ou des organismes (raisons sociales). Par extension, on y rajoute les adresses mails, les numéros de téléphone, les codes postaux, et toute information de ce genre que l’on peut y relier.

Méthode de la pyramide inversée

C’est un façon de rédiger spécifiquement pour des objectifs SEO. La rédaction de contenu web doit systématiquement suivre les principes de la pyramide inversée qui consiste de commencer par un champ lexical large pour finir sur une ou deux expressions bien ciblées.

Différents indicateurs SEO

Une des questions les plus perturbantes car si il y a bien un domaine où la multiplicité de l’offre est importante, c’est bien le référencement naturel. La question posée tournait autour des propres indicateurs qu’utilisent certains outils (SemRush / Majestic / Moz / Ahrefs) ou plateformes (Facebook / Google).

TrustFlow / CitationFlow

Ces 2 indicateurs ont été mises au point par la plateforme Majestic. Ces 2 indicateurs traitent le volet qualitatif (TrustFlow ou TF) et quantitatif (CitationFlow ou CF) de vos backlinks.

L’objectif est d’estimer le potentiel de référencement naturel d’un site. Ce sont des métriques qui sont très souvent utilisées lors de la vente de sites web ou de l’achat de backlink.

Ces 2 indicateurs ne font pas l’unanimité dans la communauté SEO.

EdgeRank

C’est l’algorithme de Facebook pour le classement de ces contenus dans votre timeline. Il dépend de 3 paramètres.

  • Affinité
  • Fraîcheur
  • Attractivité

Le contenu est classé selon ces 3 critères dont le score s’obtient en les multipliant.

Une formule plus récente vient d’être publiée par GetElastic. Elle reprend 2 éléments de la formule précédente à savoir l’affinité et la fraîcheur.

MozRank

L’algorithme de calcul du MozRank (indicateur de la société Moz crée notamment par Rand Fishkin une figure du SEO aux Etats-Unis) s’appuie essentiellement sur l’autorité des liens. L’indicateur est calculé pour chaque page. Même si le MozRank n’est pas utilisé par Google, on peut largement penser que les principes sont équivalents et donc que le MozRank vous permet d’estimer la qualité du netlinking de vos pages. La barre d’outils MozBar permet de vous indiquer deux composantes du MozRank : le PA (Page Authority) et le DA (Domain Authority). On n’est pas très loin des notions du TF et CF de Majestic.

RankBrain

Voir le paragraphe qui lui est consacré plus haut.

PageRank

Est il encore nécessaire d’en parler alors que Matt Cutts l’a définitivement annoncé comme hors circuit en octobre 2014 ?

Codes HTTP

Il y a 5 classes de code HTTP :

  • 1xx : message informatif (très peu utilisé)
  • 2xx : message de succès : le code 200 pour la requête a été traitée avec succès.
  • 3xx : message de redirection : les 2 codes les plus utilisés (301 et 302)
  • 4xx : message d’erreur du client Web (le fameux 404)
  • 5xx : message d’erreur du serveur ou du serveur d’application (l’erreur 500 qui n’est jamais un bon signe)

L’objectif des questions est plutôt orientée sur les bonnes pratiques SEO par rapport aux redirections et aux erreurs. Par exemple, vaut il mieux faire une redirection 301 ou 302 selon tel ou tel autre cas ? Pour en savoir plus sur ces codes, vous pouvez toujours consulter la page Wikipedia qui y est consacré.

En conclusion

Le fait que ce soit un QCM est toujours une façon de perturber la manière dont on y répond. L’épreuve est en temps très limité et répondre à 80 questions dans le temps imparti est vraiment un exercice délicat. Pas vraiment le temps de butiner sur le web pour trouver une réponse. Il ne vous reste plus qu’à vous mettre au boulot tout comme moi …

PS : je cite les 2 bibles françaises du SEO que sont :

N’hésitez pas à commenter pour partager les bonnes sources d’infos.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *