SEO

Comment fonctionne l’algorithme de Google en 2020?

Aujourd’hui, trouver des informations utiles sur le web est une chose que beaucoup d’entre nous considèrent comme un acte anodin. Selon Statista, il y a près de 1,7 milliard de sites Web actifs sur Internet. La tâche consistant à passer au crible tous ces sites pour trouver des informations utiles est tout simplement monumentale. C’est pourquoi les moteurs de recherche utilisent des algorithmes complexes pour indexer, classer et afficher les résultats à la suite d’une recherche d’un internaute.

Les algorithmes sont des instructions mathématiques qui indiquent aux ordinateurs comment accomplir les tâches qui leur sont assignées. Dans cet article, nous allons vous expliquer comment fonctionnent les algorithmes, en particularité ceux de Google, ainsi de leur importance pour votre SEO.

Le fonctionnement de Google Algorithme.

L’algorithme de Google fait le travail à votre place en recherchant les pages Web qui contiennent les mots clés que vous avez utilisés pour effectuer une recherche, puis en attribuant un rang à chaque page en fonction de plusieurs facteurs, notamment le nombre de fois que les mots clés apparaissent sur la page.

Les pages les mieux classées apparaissent plus haut dans la page de résultats du moteur de recherche de Google (SERP), ce qui signifie que les meilleurs liens relatifs à votre requête sont théoriquement les premiers que Google répertorie.

Pour les administrateurs de pages web, le fait d’être bien référencé sur Google se traduit par une forte augmentation du trafic et de la visibilité sur la toile.

Google est le site internet le plus populaire du monde. Avec un tel trafic, obtenir une bonne place sur le SERP de Google signifie une augmentation considérable du nombre de visiteurs.

La fonction de recherche par mot-clé de Google est similaire à celle des autres moteurs de recherche. Des programmes automatisés appelés « spiders » ou « crawlers » parcourent le Web, se déplaçant de lien en lien et construisant une page d’index qui inclut certains mots-clés. Google fait appel à cet index lorsqu’un utilisateur saisit une requête.

Le moteur de recherche répertorie les pages qui contiennent les mêmes mots clés que ceux qui figuraient dans les termes de recherche de l’utilisateur. Les spiders peuvent également avoir des fonctions avancées, comme la possibilité de déterminer la différence entre les pages avec un contenu réel et les sites de redirection, des pages qui n’existent que pour rediriger le trafic vers un site externe.

Le placement des mots-clés joue un rôle important dans la manière dont Google détecte les sites.

Le moteur scrute les mots-clés dans chaque page, mais certains espaces sont plus importantes que d’autres. Par exemple, il est judicieux d’inclure le mot-clé dans le titre d’une page. Google recherche également des mots-clés dans les titres de vos articles.

Les titres sont de différentes tailles, et les mots-clés dans les grands titres ont plus de valeur que s’ils sont dans les titres de paragraphe par exemple. La diversité des mots-clés est également une chose très importante.

Si les webmasters doivent éviter de sur-utiliser les mots-clés ( bourrage de mots clés ), il est recommandé de les utiliser régulièrement tout au long d’une page.

A noter que pour faire ce travail colossal, Google déploie non pas un, mais plusieurs algorithmes à la fois. De plus les algorithmes du géant sont mis à jour fréquemment. 

D’une manière générale, les algorithmes de recherche de Google peuvent être décomposés en cinq parties selon leur fonction :

Analyser les mots

Google s’efforce de comprendre ce que les internautes recherchent. C’est la seule façon pour lui de fournir des résultats pertinents et de garder la qualité des résultats qu’il propose. La mission de Google est d’offrir aux utilisateurs des résultats fiables.

À l’aide de modèles linguistiques, Google peut déchiffrer l’intention d’un internaute à travers une requête, sachant ainsi ce qu’il faut chercher dans son index. Cette partie a fait un énorme bond lors du déploiement de l’algorithme BERT. En effet, BERT est un algorithme de traitement du langage naturel basé sur de l’intelligence artificielle.  

Voici ce que dit Google sur son algorithme :

« Par exemple, notre système de synonymes aide la recherche à savoir ce que vous voulez dire, même si un mot a plusieurs définitions. Ce système construit depuis plus de cinq ans améliore considérablement la qualité des résultats dans plus de 30 % des recherches, toutes langues confondues. »

Cela montre à quel point Google est déterminé à fournir des résultats de la plus haute qualité et de la plus grande pertinence à ses utilisateurs.

Correspondance de recherche

Analyser les mots, c’est le début, mais c’est lorsque l’internaute aura trouvé ce qu’il cherche que les choses sérieuses commencent.

Google recherche les pages qui correspondent à une requête. Pour ce faire, il recherche les termes dans l’index et les sites qui correspondent le mieux aux informations recherchées par un utilisateur. Ainsi, il analyse des détails tels que l’apparition du mot-clé dans les titres ou les rubriques et la densité du mot-clé sur une page.

Classement des pages

Lors d’une recherche, un internaute ne se soucie pas du nombre de pages contenant des informations sur son sujet. Tout ce qui l’intéresse, c’est de trouver la bonne information. Et c’est ce que la firme américaine s’efforce de nous offrir.

Pour une recherche classique, il n’est pas exclu qu’il y ait des dizaines de millions de sites contenant des informations pertinentes. Pour s’assurer que Google fournit les meilleurs résultats, ses algorithmes se mettent au travail.

Les algorithmes de classement analysent des centaines de facteurs différents pour tenter de faire apparaître les meilleures informations que le web peut offrir.

De nombreux éléments sont pris en compte comme la fraîcheur du contenu, le nombre de fois que vos termes de recherche apparaissent, l’expérience utilisateur.

Afin d’évaluer la fiabilité et l’autorité du sujet, Google recherche des sites que de nombreux utilisateurs semblent apprécier pour des requêtes similaires. Si un autre site web ayant de la notoriété sur le sujet pointe un lien vers la page, c’est un bon signe que l’information est de haute qualité. On parle ici d’autorité d’un domaine

Bien entendu, cette approche à conduit de nombreuses personnes à créer des sites spammeurs pour tenter contourner Google ( black Hat ). Cependant rien n’échappe au contrôle et un algorithme dédié à été mis en place pour identifier et supprimer les sites qui enfreignent ses directives.

Questions de contexte

Tout le monde n’obtiendra pas les mêmes résultats de recherche, même s’ils tapent exactement les mêmes mots-clés. Divers facteurs, notamment l’historique, les paramètres de recherche et le lieu entrent tous en ligne de compte pour générer des résultats.

Par exemple, la recherche des « meilleurs hôtels » à Paris produit des résultats différents en fonction de votre emplacement géographique.

 

Les mises à jour majeures de l’algorithme Google

Pour maintenir une qualité de résultats toujours inégalée, Google met à jour régulièrement ses algorithmes.

Ces mises à jour ont pour but de lutter contre des comportements contraire à la mission de Google a savoir : offrir les résultats les plus pertinents possible aux utilisateurs. 

Bien que certaines mise à jours soient passées presque inaperçues, certaines ont fait l’effet d’une bombe dans les classements des sites web sur internet. Voici la liste des mises à jour de l’algorithme de Google qui ont eu les plus gros impacts sur le SEO :

Panda :

Déployé en février 2011, le principal objectif de Google Panda était d’identifier les contenus dupliqués, plagiés ou de faible qualité et les bourragse de mots-clés.

Il s’agissait d’un filtre mis en place par Google plutôt qu’une modification de l’algorithme de Google. C’est l’algorithme de base utilisé pour attribuer un score de qualité de contenu d’un site web.

Pingouin :

Les principaux objectifs de Google Penguin sont d’identifier et de rétrograder les sites ayant des profils de liens non naturels. Ces liens sont considérés comme du spamming dans les résultats de recherche et utilisent des tactiques de référencement naturel frauduleuses. Les liens achetés étaient l’élément visés par Pingouin.

Colibri :

Il s’agit d’une autre modification importante de l’algorithme qui concerne l’interprétation des requêtes de recherche (en particulier les requêtes longues et conversationnelles) et des résultats de recherche qui correspondent à l’intention de l’internaute, plutôt qu’à des mots clés individuels dans la requête. 

L’objectif de Google était de produire des résultats plus pertinents en comprenant mieux le sens des requêtes.

Pigeon ou Opposum

C’est l’algorithme qui a fortement modifié les résultats que Google renvoie pour les requêtes dans lesquelles la localisation de l’internaute joue un rôle.

Rank Brain

Il est basé sur de le machine Learning ou un système d’apprentissage automatique qui aide Google à mieux déchiffrer le sens des requêtes et à fournir les meilleurs résultats de recherche en réponse à ces requêtes.

Fred :

L’algorithme Fred a pour objectif de lutter contre des sites qui sont seulement centrés sur de la monétisation et l’affiliation au lieu de satisfaire les utilisateurs par des informations de grande qualité.

Medic

Cette mise à jour touche le domaine médical, santé, finances, politiques et droit de la famille.

Dans le cadre de ces sites, Google exige maintenant qu’ils respectent à la lettre certaines de ses recommandations, comme celle de l’impartialité des informations distillées par le contenu du site, l’exactitude de ces dernières, ainsi que l’autorité du site web qui publie sur ces niches.  

Rédigé par

Partager

Découvrir plus d’articles