Principaux algorithmes de Google à connaître pour son référencement naturel
vider-cache-wp-rocket-wordpress
Vider le cache du plugin WordPress WP Rocket
28/12/2016
traduction-multilingue-site-wordpress
Comment proposer le multilingue sur son site WordPress ?
08/02/2017
Voir tout

Principaux algorithmes de Google à connaître pour son référencement

Principaux algorithmes Google à connaître pour son référencement naturel

Nous vous présentons aujourd'hui les principaux algorithmes Google à connaître pour son référencement naturel

Afin d’évaluer le bilan SEO des sites internet et de donner à chacun un positionnement équivalent à sa qualité pour les internautes, Google dispose de plusieurs algorithmes régulièrement mis à jour. Vous trouverez ici les huit plus importants, que tout webmaster se doit de connaître et d’en respecter les règles, afin d’optimiser la pertinence de son référencement et d’éviter d’être pénalisé par les moteurs de recherche.


Google Panda, le vérificateur de qualité

Créé en 2011, Google Panda a pour charge d’évaluer la qualité globale d’un site internet. Son algorithme a pour principe de lire les textes et les contenus multimédias de toutes les pages, afin de comparer le contenu du site au comportement des internautes. L’impact SEO touche la totalité du site, mais ce sont les parties jugées les plus faibles qui souffrent en référencement.

Pour plaire à Google Panda, il faut donc produire du contenu unique de qualité, c’est-à-dire dépourvu de fautes ou encore non-dupliqué, et que cela plaise aux visiteurs. Pour mesurer cette satisfaction, l’algorithme va tout simplement vérifier la présence de commentaires, ou encore le temps passé sur chaque page.

Google Pingouin, ou Penguin, le gendarme du sur-référencement

Sorti en 2012 et mis à jour à la fin de l’année 2016, Google Pingouin (ou plutôt Google Penguin dans la langue de Google) a pour objectif unique de pénaliser les sites tentant le sur-référencement. En effet, certains webmasters sont tentés de multiplier la présence de redirections inutiles ou de bourrer leurs articles ou méta-descriptions de mots-clés efficaces afin d’espérer obtenir un bon référencement naturel.

Google veille évidemment au grain et n’hésite ainsi pas à impacter très négativement le SEO de ces sites en affectant leur positionnement et, dans le pire des cas, en supprimant les adresses web des résultats des recherches des internautes.

Compatibilité mobile et index mobile-first

Devant l’explosion du nombre d’utilisateurs de téléphones permettant une connexion internet, Google a décidé de créer un critère de compatibilité mobile afin que toute recherche effectuée sur un smartphone renvoie plutôt vers des sites disposant d’une version mobile. Cet index mobile-first analyse les sites page par page afin de favorisée celles compatibles avec un téléphone, tout en pénalisant celles ne disposant pas de cette compatibilité.

Jusqu’en 2015, Google n’avait qu’un seul index pour analyser les sites web. Aujourd’hui, il en possède deux : l’un qui propose un bilan SEO pour les recherches classiques sur ordinateur, et un autre exclusivement dédié aux smartphones. En somme, un site ne disposant pas de version mobile sera pénalisé lors de recherches sur téléphone, mais cela n’impactera pas son positionnement classique sur ordinateur.

Publicité interstitielle intrusive

Daté du début de cette année 2017, l’algorithme chargé de la publicité interstitielle intrusive va chercher à sanctionner le positionnement des sites affichant trop de pop-up ou de bannières publicitaires. L’objectif est de donner un référencement très bas à des pages où la navigation et la lecture sont gênées par le déploiement excessif de pages publicitaires.

En effet, Google a pour objectif de proposer aux internautes une qualité de l’information qui dépend de l’ergonomie, ce qui explique qu’une page pleine de publicités va être un inconvénient pour ses visiteurs, et va donc avoir un impact SEO négatif pour les moteurs de recherche.

Rankbrain et le traitement des recherches inédites

Actif depuis 2015, Rankbrain est un algorithme assez différent des autres, dans le sens où, selon Google, il n’est tout simplement pas possible d’optimiser son contenu afin de le contenter. En effet, le logiciel est une intelligence artificielle dont le rôle est d’optimiser les recherches les plus compliquées faites par les internautes, et particulièrement celles qui n’avaient jamais été faîtes avant.

On estime que ces requêtes inédites sont tout de même égales à 15% des résultats totaux produits par les moteurs de recherche : un enfant cherchant son nom et son prénom pour la première fois sur Google aura par exemple une grande chance de voire sa demande traitée par Google Rankbrain. Celui-ci ne pénalise ou ne favorise donc pas le positionnement des sites, mais sert uniquement à les référencer face à des requêtes spéciales et rares.

Google Pigeon, ou Oppossum, pour les requêtes ciblées et locales

Pigeon a été déployé en 2015 dans le monde entier après une période de test aux États-Unis. Il s’agit en réalité d’une mise à jour visant à référencer les sites internet selon les recherches locales. Afin de le rendre totalement efficace, il concerne tous les pays du monde et toutes les langues utilisées sur le moteur de recherche, de façon à permettre aux internautes de profiter de résultats ciblés, précis et donnant des informations sur des lieux ou encore des individus à proximité.

Le meilleur moyen pour un webmaster d’optimiser sa page afin de répondre à ce bonus SEO est donc d’assumer, si le contenu de son site s’y prête, la nature locale de ce dernier (à travers notamment le déploiement de données structurelles contenant des adresses ou des numéros de téléphone). En 2016, Google Pigeon prend le nom d’Opossum.

Vitesse, ou l’intérêt d’avoir un site techniquement impeccable

Comme son nom l’indique, Vitesse est un algorithme dont le but très simple est de favoriser dans leur positionnement les sites les plus rapides, c’est-à-dire ceux qui sont les mieux optimisés techniquement afin d’offrir une navigation fluide aux internautes. De ce fait, un site rendu lent à cause de détails inutiles ou de problèmes dans ses codes va être pénalisés, tandis que ceux construits efficacement vont bénéficier d’un SEO plus positif.

HTTPS, pour la fiabilité et la sécurité des internautes

Cet algorithme de Google favorise tout simplement les sites utilisant le protocole HTTPS, qui permet à l’internaute d’être certain de l’identité de la page qu’il visite grâce à un certificat de sécurité très fiable. De manière général, l’impact SEO est assez faible, mais il s’agit tout de même d’un petit bonus non-négligeable à prendre.


Il existe bien entendu de nombreux autres algorithmes de Google, mais nous vous avons présenté ici les principaux. Si vous respectez les recommandations de Google, nul doute que votre référencement naturel sera bon et votre site internet apprécié par Google 🙂 !

Guillaume Guersan
Guillaume Guersan
Fondateur de l'agence de de communication tobecom, spécialisée dans le Marketing Digital, je suis un passionné d'informatique, de nouvelles technologies et donc de Marketing Numérique. Plus précisément : WordPress, le Référencement Naturel SEO, Le SEA ainsi que les Réseaux Sociaux.

2 Comments

  1. Hugo dit :

    beau résumé, cet article est très intéressant

  2. Effectivement, c’est un must de connaître tous ces outils de Google pour échapper à la pénalisation et optimiser ses chances d’être en première page sur les résultats de recherches.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *