Evolution de l’algorithme GOOGLE de 1998 à nos jours !

11/03/2022 Par IBRAHIMA

Google est le plus important acteur du web avec plus de 90% du marché mondial, un chiffre d’affaires annuel de 257, 6 Md$, une capitalisation boursière de 1820 Mds$ et avec une trésorerie de 140 Md$.

Dans ce podcast, nous ferons une genèse de l’évolution de l’algorithme de 1998 à nos jours, la mise en place des filtres Google panda, Google Penguin et Google BERT et qu’est-ce que l’algorithme a apporté comme changement dans l’univers digital.

La forte interrogation qui taraude nos esprits, peut-on réellement se passer de ce mastodonte du web ? la réponse dans ce podcast😀 😃😄😍.

Bonjour Mesdames et Messieurs,

C’est toujours un honneur et un réel plaisir pour moi de prendre la parole et je là prend avec beaucoup d’humilité, de sérénité et de sagesse.

Je vous souhaite la bienvenue sur Lets Go Digital du MBAMCI, le MBA Marketing digital et E-commerce de l’Institut Léonard de Vinci qui forme les futurs E-talents et classé 1er depuis une dizaine d’années. Je salue au passage l’ensemble du corps professoral qui a grandement contribué à réveiller cette passion du digital qui sommeillait en nous.

Je suis Ibrahima TRAORE, Spécialiste en référencement naturel plus connu sous l’acronyme SEO.

Comme vous le savez Google est le plus important acteur du web avec plus de 90% du marché mondial et a engrangé sur les 12 derniers mois un chiffre d’affaires de 257,6 Md$, en augmentation de 41,2% sur 1 an.

Nous nous évertuerons dans ce podcast à vous plonger dans l’univers de Google, comment fonctionne les algorithmes Google Panda, Google Penguin et Google BERT en un mot vouloir percer le mystère de ce géant de la Californie.

Google a dévoilé la statistique annuelle indiquant le nombre de modifications portées à son moteur de recherche. Et ce nombre est passé de 3 620 en 2019 à 4 887 en 2020, soit plus de 13 changements par jour et 463 795 tests en 2020.

Nous allons tenter de répondre à une série de questions à savoir :

Pourquoi Google s’est imposé comme un acteur majeur du Web ?

Comment l’algorithme Google a évolué de 1998 à nos jours en facilitant l’accès à l’information dans le monde ?

Nous ferons un historique dans un premier temps sur l’évolution de Google et en second lieu nous parlerons des filtres Google Panda, Google Penguin, Google BERT dont le but consiste à nettoyer le web et nous offrir de meilleurs résultats de recherche.

Il semble difficile d’entamer aujourd’hui une requête sur le Web sans utiliser Google. L’entreprise, avant de devenir l’une des plus grandes firmes américaines, n’était au début qu’une petite société unipersonnelle. En 1997, le projet est rebaptisé Google, en référence avec « googol » signifiant 1 suivi de cent zéros. Par manque de moyens, Google débute avec plusieurs machines peu puissantes, reliées entre elles pour créer une synergie.

Google, acteur majeur du web

Google a vu officiellement le jour le 4 septembre 1998, grâce à deux associés Larry Page et Sergey Brin qui rêvaient de nous offrir les résultats de recherche différemment et de classer les liens des pages Web en fonction du moment où ils apparaissent.

Lawrence (Larry) Page est un informaticien et entrepreneur d’origine américain. Cofondateur de Google, l’entrepreneur dirige Alphabet.Inc. Né le 26 mars 1973 à East Lansing, Michigan, Page est issu d’une famille d’informaticiens. Son père était effectivement titulaire d’un doctorat en informatique.

Sergey Brin est le cofondateur du géant Internet Google. Il est de plus le directeur technique de l’entreprise américaine. En 2011, Forbes (magazine économique Américaine) a placé le directeur à la 24e place dans le classement des plus grosses fortunes mondiales. Sa richesse est effectivement estimée à 19.8 milliards de dollars.

Brin est issu d’une famille de mathématiciens, d’où sa passion pour cette matière. Son père était aussi un professeur de mathématique. Les deux associés se sont rencontrés à l’université de Stanford.

L’entreprise décolle réellement en 1998, grâce à un premier investissement de 100 000 dollars, versé par Andy Bechtolsheim. Sergey et Larry ont d’abord loué un garage en guise de local pour l’entreprise au début.

Un an plus tard, les cofondateurs sont obligés de déménager à Palo Alto car le nombre du personnel augmentait. L’année 1999 sera décisive car les deux déménagent leur toute nouvelle entreprise à la Mountain View.

Ils bénéficieront d’une levée de fonds majeur à hauteur de 25 millions de dollars, ce qui permet de faire décoller pour de bon l’entreprise. Le nombre de recherches journalières s’élève à 3 millions, ce qui attire les annonceurs intéressés par cette forte visibilité.

READ  5 astuces à savoir sur le white Hat SEO !

Après avoir planté le décor, il est intéressant de savoir que le Web a connu son apogée au début des années 1990. Très rapidement, les premiers sites ont vu le jour et à l’époque les premiers outils qui permettent d’effectuer des recherches sur le net ont vu le jour pour faciliter l’accès à l’information. À cette époque, ces outils de recherche  :

Les outils de recherche étaient des annuaires (Yahoo!, le Guide de Voilà, Nomade, l’Open Directory ou Dmoz) qui listaient les sites web en les rangeant dans des « tiroirs » appropriés.

Ces annuaires étaient utiles pour trouver des sites web, des sources d’information au sens général et ils ont été supplantés rapidement par les moteurs de recherche. Les premiers moteurs de référencement étaient WebCrawler, Infoseek, Lycos, Excite).  

Leurs rôles étaient de simplifier, un critère de pertinence assez frustre : si un internaute tapait le mot-clé « digital », par exemple, dans le moteur de recherche, c’était la page qui contenait beaucoup de mots digital qui arrivait en tête !

Les webmasters à l’époque se sont amusés à faire du « bourrage de mots-clés » (keyword stuffing) pour essayer de passer devant les autres et c’était très réussi.

Google arrive sur le marché du web à la fin des années 1990 et bouscule le monde de la recherche web car les ingénieurs qui ont créé ce moteur se sont vite aperçus que la lecture de la balise meta keywords ne pouvait pas suffire à bâtir un moteur de recherche pertinent.

Sergei Brin et Larry PAGE ont eu l’idée de créer un outil efficace et pertinent car l’analyse d’une page web et de son contenu ne suffisaient pour évaluer de sa qualité, sa pertinence par rapport aux termes saisis par l’internaute.

Ils ont construit une famille de critères axés sur les liens pointant vers des pages populaires. Plus on parle de vous sur le net et plus vous êtes populaire. C’est ainsi que la notion de pagerank a vu le jour pour classer un site selon des critères de pertinence et de notoriété et ce principe demeure toujours être l’ADN de GOOGLE.

La notoriété et la pertinence de son moteur sur Internet a fait de Google l’une des plus grandes firmes américaines. Sur le Web, Google figure parmi les Big Four de l’Internet, avec Apple, Facebook et Amazon.

Malgré la mise en place de ces critères de pertinence et de notoriété, beaucoup de webmasters ont commencé à tricher sur internet et a violé les règles établies par Google ? Les sites E-commerce, les marques ne rataient pas l’occasion de contourner les règles en mettant en ligne des contenus dupliqués ou des redirections. 

Pour trouver une solution à cette impasse, Google annonce la création de l’algorithme Google PANDA en 2011. Un changement majeur s’opère dans l’univers digital et qui va impacter gravement les sites du monde entier.

Google Panda va aider à filtrer les sites qui ne sont pas pertinents et qui ne fournissent pas un bon contenu aux utilisateurs.

“Google panda” a été mis en place pour aider les utilisateurs à trouver des sites web fiables et de qualité. L’algorithme censure les sites ou contenus web qui ne sont pas jugés “fiables”, c’est à dire qui contiennent trop d’informations fausses et inutiles aux internautes.

Cette mise à jour porte d’ailleurs le nom de l’ingénieur Google Navneet Panda qui travaille au sein de l’équipe de spam Web de Google. Lorsqu’il a rejoint la firme de Mountain View en 2010, il avait pour rôle de développer un nouvel algorithme pour résoudre le problème du contenu de faible qualité faible et ombrant les pages de résultats de recherche.

Navneet Panda est aussi le concepteur de RankBrain, un système d’intelligence artificielle d’apprentissage automatique qui permet à Google de mieux comprendre ses utilisateurs et de fournir de meilleurs résultats de recherche.

Cet algorithme a été conçu pour nettoyer les résultats des sites malveillants et non pertinents afin d’améliorer la qualité des résultats obtenus sur Google. Il consiste à analyser les liens entrants et les commentaires afin de déterminer si un site est pertinent ou non.

Avec son algorithme de base, Google a toujours cherché à récompenser les sites web qui ont un contenu pertinent et bien écrit. Cependant, il y a quelque temps déjà, l’entreprise américaine a décidé de mettre en place une mise à jour visant clairement les produits phares des marchés commerciaux : les groupes d’achat en ligne. Ces derniers ont vu leur trafic chuter de manière dramatique depuis lors.

La règle est simple : plus votre site est pertinent, plus il aura de chance de figurer sur les premières pages de Google. Panda serait donc un algorithme anti-spam qui aurait pour rôle de réduire le contenu du Web considéré comme inutile et de référencer uniquement le contenu high-level.

READ  Le cloacking et obfuscation de liens en SEO : Qu'est-ce que c'est ?

L’impact de Google Panda sur le marché de l’internet

L’impact de cette mise à jour lancé par Google ne s’est pas fait attendre, rien qu’aux Etats-Unis 3 à 5% des requêtes furent impactées.

Quelques dates clés des sanctions Google panda

  • 24 février 2011 : Panda 1.0. la première version du filtre est lancée uniquement aux Etats-Unis ayant pour but de lutter contre les « fermes de contenu ».
  • 11 avril 2011 : Panda 2.0 est lancé. En plus des USA, le filtre s’applique désormais à tous les sites anglophones (Grande Bretagne, Australie, …).
  • 12 août 2011 : le lancement de Panda, version 2.4 (ou 3.0) dans le monde entier (hors pays asiatiques).
  • Total fin 2013 : on comptabilise 26 lancements du filtre de nettoyage Panda.

Le Panda 4.0 a eu comme effet de sanctionner les sites web ayant une densité trop élevée d’articles et des liens commerciaux ou sponsorisés dans le corps de leur contenu principal, ce qui a entraîné une baisse significative des clics et donc une baisse du taux de conversion.

L’objectif principal de cette mise à jour est d’augmenter la qualité des résultats de recherche. La mise à jour a affecté à la fois les recherches sur ordinateur et sur mobile, mais les changements ont été plus importants pour les recherches sur mobile.

Si votre site Web est affecté par Google Panda, vous constaterez une baisse de votre trafic et du nombre de conversions de visiteurs en ventes et cela est d’autant vrai que les sites E-commerce comme Amazon, E-bay, ou encore Etsy ont subi la fureur du Panda.

Pour savoir si votre site a été affecté par Google Panda, consultez votre console de recherche. Si vous avez un taux de rebond élevé, un faible nombre de pages par visite ou un faible temps passé sur le site, vous êtes susceptible d’être concerné par la mise à jour de l’algorithme.

Depuis mars 2013 le filtre Panda fait partie intégrante de l’algorithme de Google. Il n’y a plus de lancement mensuel, les mises à jour se font en temps réel.

Google ne s’arrêta pas uniquement à ce niveau et très rapidement on découvrira aussi l’algorithme Google Penguin dans la même foulée.

A quoi sert Google penguin ?

Vous êtes-vous déjà demandé pourquoi un résultat de recherche organique l’emporte sur un autre ? Existe-t-il une formule à suivre pour déterminer la qualité d’un site web aux yeux de Google ? Si un certain site Web se classe au-dessus du mien, cela me dit qu’il doit avoir quelque chose que je n’ai pas. Jusqu’à mi-2011, c’était vrai.

Cependant, depuis la sortie de Google Penguin, les propriétaires de sites Web commencent à regarder le contenu de leurs concurrents pour les classements plutôt que de se fier uniquement aux facteurs sur site.

En 2012, Google a publié une nouvelle mise à jour de l’algorithme (communément appelée “Google Penguin Update”) qui ciblait les sites Web qui utilisaient des méthodes sournoises pour obtenir un classement élevé sur la page des résultats de recherche. Google Penguin a vocation à sanctionner les mauvais élèves du web et les conséquences peuvent aller jusqu’à la désindexation de votre site.

Google Penguin est un filtre au sein de l’algorithme de Google qui vise à pénaliser les sites de mauvaise qualité.

Penguin a été présenté par Larry Page, PDG de Google, lors de la réunion annuelle de la Search Marketing Expo à San Francisco le 24 février 2012. Le 24 avril 2012, Google a publié une déclaration sur son blog officiel expliquant que Penguin était réel.

Le blog de Google fourni des conseils sur la façon d’éviter les effets de Penguin et d’attendre de futures mises à jour, et comment les webmasters peuvent soumettre leur site pour réexamen après avoir été affectés par la mise à jour.

L’objectif de Penguin est d’abaisser le classement de recherche des sites avec un mauvais contenu et d’augmenter le classement de recherche des sites qui “jouaient” avec les algorithmes précédents.

Penguin va pénaliser les sites Web qui utilisaient des techniques de manipulation pour bien se classer dans les résultats des moteurs de recherche. Cela a affecté les sites qui utilisaient des méthodes de référencement black-hat pour améliorer leur classement dans les moteurs de recherche.

Google Penguin est un algorithme qui détecte les sites qui utilisent des spams et des astuces SEO pour se classer plus haut dans les résultats de recherche. La mise à jour du pingouin de Google a été l’un des changements les plus répandus dans la façon dont Google traite les liens de spam, les experts prédisant qu’elle se répercuterait sur les sites individuels après quelques mois.

READ  Dobrief: Votre outil de rédaction web indispensable !

Comment éviter une pénalité liée au penguin ?

  • Surveiller constamment les backlinks de son site sur la Google search Console.
  • Désavouez les liens toxiques pointant vers vous.

Qu’est-ce-que Google BERT change dans notre manière de faire des recherches sur le web ?

En dernier lieu, nous parlerons de l’algorithme Google BERT qui va encore une fois de plus révolutionner l’univers digital car la recherche vocale est intégrée et tous les férus du web sont impatients de découvrir le mystère de l’algorithme et ses capacités réelles.

Vous rêviez d’un moteur de recherche qui comprend votre manière de réfléchir ? C’est ce que vous apporte Google avec l’algorithme BERT. Même si le nom peut faire penser à un assistant vocal, il s’agit plutôt d’un modèle intelligent capable de détecter les intentions de recherche des internautes.

BERT révolutionne la perception des requêtes, ce qui joue un rôle dans le référencement.

L’acronyme BERT signifie « Bidirectional Encoder Representations from Transformers » traitement automatique du langage naturel. Lancé en octobre 2019, son objectif consiste à fournir des résultats toujours plus pertinents aux recherches des internautes et en essayant de comprendre les intentions formulées derrière les expressions naturelles.

Avant BERT, les mots-clés étaient pris individuellement sans forcément créer des liens entre eux. Désormais, les phrases sont prises dans leur ensemble tout en tenant compte du contexte. Ce qui inclut les prépositions, les expressions de longue traîne et courte traîne, les mots de liaison, les nuances polysémiques, les pronoms tout ce qui peut faire partie du langage naturel et qu’un internaute peut taper sur le moteur.

Google BERT constitue donc une solution pour la recherche vocale toujours croissante, puisque cette dernière comprend, en majorité, des questions ou des expressions naturelles et conversationnelles.

L’algorithme s’inspire du deep learning associé au NPL (Natural Language Processing), analyse les requêtes les plus utilisées par les internautes, décortiquer le sens et offrir le meilleur résultat possible. Cette Intelligence Artificielle analyse les mots les plus importants et les plus déterminants pour le sens d’une phrase, afin de ne présenter que des résultats pertinents. Vous l’aurez compris, pour les requêtes de deux ou trois mots, BERT ne sera d’aucune utilité. Seules les requêtes longues et complexes se retrouvent affectées par un internaute qui souhaite faire une recherche vocale pourra dire par exemple « je recherche la tour Eiffel de Paris et connaitre la distance de Lyon à Paris ».

L’algorithme devra aider à :

  • Résoudre les problèmes d’homonymie.
  • Replacer les phrases dans leur contexte sémantique

L’algorithme renforce le désir de Google de proposer des contenus pertinents et de qualité répondant à l’intention de recherche des internautes. A l’avenir, il faudra miser sur les contenus à longue traîne ? Avec l’évolution de BERT, on peut imaginer que les contenus sémantiques comme les phrases construites en sujet-verbe-complément seront privilégiés.

Ainsi, Google pourrait profiter aux sites de niche et ceux qui veulent se positionner sur les recherches vocales.

En définitive, Google BERT ne sera pas une menace pour le SEO mais son objectif sera de comprendre un peu mieux les requêtes des internautes toujours cher à Google.

Pour tirer meilleur parti du jeu, rédigez vos contenus de façon naturelle, privilégiez toujours la qualité des informations transmises et préparez-vous à la recherche vocale qui fera la part belle aux expressions de longue traîne.

De 1998 à nos jours Google ne cesse de grandir et ces quelques Chiffres montrent la bonne santé financière de la firme :

  • Un Chiffre Annuel de 257,6 Md$ en 2021
  • Bénéfices annuels : 76 Md$ en 2021
  • 140 milliards de dollars de trésorerie au 31/12/2021
  • 1820 milliards $ de capitalisation boursière pour GOOG au 16/02/2022
  • 156 500 employés au 31/03/2020

Les Principales sources de revenus viennent de Google Ads, YouTube Ads, Google AdSense, Google Cloud ainsi que quelques autres activités du holding Alphabet.

Mesdames et messieurs, nous vous remercions de votre écoute active et tout en espérant que ce podcast vous a permis de connaître, découvrir et de comprendre l’univers de cet acteur clé du web et qui continue de nous épater et nous émerveiller au fil du temps avec toujours ce côté mystère et suspens qu’on adore chez eux.

Toute œuvre humaine porte en elle sa dose d’imperfection et j’ose espérer que vous l’apprécierez à juste titre.

Nous terminons ce podcast sur cette interrogation majeure : Pensez-vous réellement qu’un jour que l’on pourra se passer de ce mastodonte du web ?

Ibrahima TRAORE/Spécialiste SEO

Let’s Go Digital, c’est le podcast du MBA MCI, le MBA marketing digital de l’Institut Léonard de Vinci #LetsGoDigital #MBAMCI