L’évolution de l'algorithme de recherche Google
Sergey Brin et Larry Page ne pouvaient pas être plus explicites en 1998 lorsqu’ils présentaient leur prototype (et le système PageRank!) dans L’anatomie d’un moteur de recherche Web hypertextuel à grande échelle : « La mesure la plus importante d’un moteur de recherche est la qualité de ses résultats ».
Tout naturellement, Google introduit le concept de Search Quality 10 ans plus tard afin d’assurer une bonne qualité de recherche et donc améliorer l’expérience de ses utilisateurs.
Durant les 12 années qui ont suivi, nous avons pu voir passer plusieurs mises à jour des différents algorithmes de recherche avec pour objectif principal celui mentionné ci-dessus.
Impacts des mises à jour de l'algorithme Google sur le référencement
Mai 2020 : Google Core Web Vitals
Le 28 mai dernier nous avons pu constater que le rapport de vitesse dans la console de recherche Google avait été remplacé par les Signaux Web Essentiels afin de « fournir un encadrement harmonisé pour les signes de qualité qui sont essentiels, dans le but d’offrir une excellente expérience aux utilisateurs du web.»
Le géant du web a également précisé qu’à partir de 2021, ces signes “vitaux” seront intrinsèques à l’algorithme de Google, et donc un facteur à part entière pour positionner les pages internet.
Ainsi, bien que la pertinence des résultats par rapport à la requête de l’utilisateur reste un des éléments principaux du positionnement sur internet, l’expérience de l’utilisateur sur une page (et donc l’expérience de la page en elle-même) viendra déterminer le positionnement des ensembles de pages ayant une pertinence informationnelle similaire.
Les signaux web essentiels pris en compte dans le Rapport d’expérience utilisateur sont :
Largest Contentful Paint ou LCP
Mesure la durée nécessaire de chargement pour le plus grand bloc de texte ou plus grand élément visuel de votre page, dès lors qu’un utilisateur cherche à accéder à cette page. Cette donnée est un indicateur principal lorsqu’on sait qu’une visite sur deux est abandonnée si une page met plus de 3 secondes à se charger!
First input delay ou FID
Quantifie l’interaction de l’utilisateur avec votre page en mesurant le délai entre le moment où une action est entreprise sur votre site pour la première fois, et le moment où le navigateur répond à la requête. Ce délai est souvent accentué par l’exécution de scripts car cela entraîne une plus grosse demande au serveur pour répondre aux requêtes. Comme Google l’explique, “cette valeur est importante sur les pages où l’internaute doit effectuer une action spécifique. Elle permet de déterminer combien de temps il lui a fallu pour commencer à interagir.”
Cumulative Layout Shift ou CLS
Cela permet de mesurer la stabilité visuelle de votre page pendant son chargement dépendamment du nombre de fois que les élément sautent ou se décalent, entraînant alors des bogues au niveau de la mise en page. Calculé entre 0 et 1, plus le score est bas, plus les éléments visuels sont stables lors du chargement de la page.
Chaque signal web représente une facette de l’expérience d’utilisateur, et est susceptible d’évoluer au fil du temps afin de permettre à Google d’aiguiser ses mesures de qualité d’expérience sur une page.
D’autres signaux peuvent également être introduits dans le futur pour couvrir encore plus d’élément ayant trait à l’expérience de l’utilisateur.
Octobre 2019 : BERT
BERT (Représentations de codeurs bidirectionnels à partir de transformateurs) vient renforcer la compréhension sémantique apportée par RankBrain 3 ans plus tôt grâce au traitement du langage naturel (TLN ou NLP en anglais pour Natural Language Processing). Cette intelligence artificielle permet d’encore mieux comprendre les requête en interprétant les termes d’une phrase les uns par rapport aux autres, et non plus les uns à la suite des autres.
Le fait d’exécuter une requête par rapport à son contexte positionne d’avantage l’algorithme Google comme un cerveau capable de comprendre l’être humain et lui permet de mieux répondre aux demandes des utilisateurs dans les résultats de recherche, qui comprennent également les featured snippets, ces extraits de pages web que l’on peut retrouver tout en haut des SERPs.
Aout 2018 : Google E-A-T
Début août 2018, Google introduit E-A-T afin de cibler, et pénaliser, le contenu de type Your Money Your Life (YMYL), c’est-à-dire les sites ou pages internet qui sont créées sans aucune tentative d’apporter quoique ce soit de bénéfique aux utilisateurs. Ces pages risqueraient d’impacter leur état mental, santé physique ou encore stabilité financière. De ce fait, la plupart des sites ayant été affectés étaient dans les industries Financières et Médicale. Les effets de Google E-A-T pour ces niches ont été autant positifs que négatifs dépendamment des pratiques en places sur les sites concernés.
Octobre 2015 : Intégration du machine learning pour l’analyse sémantique
Avant, les résultats de recherche étaient filtrés par un simple algorithme codé en fonction de ce que les ingénieurs Google pensaient pouvait correspondre le mieux à la recherche d’un utilisateur.
Avec l’intégration dans son algorithme d’un nouveau système appelé RankBrain, Google ouvre grand la porte de l’intelligence artificielle pour traiter sémantiquement et de façon analytique une grosse portion des recherches quotidiennes sur internet.
Ainsi, si l’algorithme tombe sur un mot ou même une phrase qui ne lui sont pas familier, la machine peut deviner les mots ou phrases ayant une signification similaire et filtrer les résultats de recherche en conséquence!
Il est également intéressant de noter que dès son introduction, RankBrain a fait partie des trois facteurs les plus importants selon Google pour positionner les pages sur les SERPs.
Avril 2015 : Google Mobile
Afin de poursuivre l’optimisation de l’expérience de l’utilisateur sur les page internet, et du fait de l’augmentation de l’usage des appareils cellulaires pour la navigation sur internet, Google introduit la compatibilité mobile comme nouveau critère de positionnement dans les résultats de recherche. Les site internet doivent donc assurer la bonne adaptabilité (responsiveness) de leur pages pour toutes tailles écran.
Juillet 2014 : Google Pigeon
Dans la même lignée que Google Hummingbird, Google Pigeon (nommé par Search Engine Land) a pour but de fournir des résultats rapides et précis, mais au niveau local. En améliorant ses paramètres de distance et de localisation géographique le moteur de recherche est plus à même de fournir des résultats de proximité. Cet algorithme vient par la même occasion renforcer l’importance d’une bonne stratégie de référencement local sur les sites internet.
Septembre 2013 : Introduction de Hummingbird
Google Hummingbird réorganise complètement l’algorithme qui était déjà en place !
Le nouvel algorithme de Google porte bien son nom et, tel un colibri, génère des résultats très rapides et précis. Ainsi, il met davantage l’accent sur les requêtes sous forme de langage naturel, en considérant le contexte et le sens plutôt que les mots-clés individuels.
Hummingbird examine également plus en profondeur le contenu des pages individuelles d’un site web, avec une meilleure capacité à conduire les utilisateurs directement à la page la plus appropriée plutôt qu’à la seule page d’accueil d’un site web.
2012 – 2016 : Mises à jour Penguin
Pour lutter contre l’accumulation de mots-clés (keyword stuffing), ce que Google considère comme du spam car cette pratique entraine une expérience négative pour un utilisateur qui tombe sur ce type de site.
2011 – 2015 : Mises à jour Panda
Afin de faire face aux fermes de contenu, ces sites web dont les pages étaient construites pour être bien référencées sur des mots-clés précis avec le moins de contenu possible, et ensuite générer des revenus sous forme de placements publicitaires, sans pour autant apporter une quelconque valeur ajoutée aux utilisateurs.
Visitez notre FAQ complète sur le SEO!
