Google & ses principaux algorithmes

La grande majorité des internautes utilise Google sans se poser plus de questions que ça sur ses principes de fonctionnement. C’est un peu le « truc magique » qui permet de trouver ce que l’on veut, ou presque. Une recherche, et ce sont des milliards de résultats venant des quatre coins du monde qui sont à notre disposition immédiate. Un peu comme un annuaire géant. Simplement, Google n’est pas simplement un « annuaire », il est beaucoup plus que ça et tend à l’être encore plus au fil de ses constantes améliorations. Ce qu’il y a « sous le capot » de Google, c’est son algorithme. C’est sa « formule magique » qui rend les recherches possibles. Comment cela fonctionne-t-il ?

 

Quel impact sur les sites et pour les utilisateurs lambdas ?

Quelques éléments de réponse à travers une description succincte des principaux changements dans l’algorithme de « Big Brother ».

Des mises à jour quasi permanentes

Le géant américain du Web travaille en permanence l’amélioration de son service. Une part non négligeable de ce travail est de juguler les pratiques « non conventionnelles » de certains webmasters qui parviennent à exploiter à leur avantage les principes de l’algorithme. Ceci, du moins en théorie et jusqu’au prochain changement seulement. L’algorithme de Google est un des secrets à la fois le mieux gardé, et le plus discuté, scruté, décrypté par les référenceurs du monde entier. Récemment, un ministre allemand a exigé de Google plus de transparence dans celui-ci, l’accusant d’être à la fois juge et partie, et de privilégier ses propres produits. Il s’agit donc d’un point crucial qui impacte la vie de millions de sites et donc d’entreprises et de travailleurs qui gravitent autour.

google methode
google algos

Le robot de Google explore les pages, les indexant suivant leur valeur et enfin redistribue les résultats. Lors de chaque requête effectuée sur le moteur de recherche, les programmes vérifient l’index de la base de donnée afin de présenter les sites les plus pertinents.

Mais comment Google s’y prend-t-il pour déterminer de la pertinence d’une page par rapport à une autre ?

Grâce notamment à  cet algorithme qui prend en compte diverses données, interprète certains facteurs et chaque année attribue une valeur à chaque site appelée Page Rank (de 1 à 10). Plus cette valeur est élevée, meilleure en sera la visibilité…

Google effectue environ 800 mises à jour de son algorithme par an. La plupart étant insignifiantes, mais certaines représentent des changements majeurs qui peuvent avoir des impacts très significatifs sur la vie du Web, la manière de faire des sites, d’en présenter le contenu, ainsi que sur l’activité d’entreprises.

Les principales mises à jour se comptent au nombre de trois, et portent toutes des noms d’animaux pour la plupart comme : Panda, Pingouin, Colibri et enfin pigeon.  La dernière significative est « payday loan » contre le spamdexing.

google algo

Panda, le chasseur de "contenu de faible qualité"

Mis en place en février 2011, Panda est en permanence mis à jour depuis. Sa vocation est de lutter contre le contenu de « faible qualité », le duplicate content (contenu dupliqué) en particulier. Pour cela, il agit en pénalisant des sites appelés « fermes de contenus » et ceux pratiquant le « pillage » de ces mêmes contenus. Les premières victimes de l’animal furent les « comparateurs de prix », les annuaires. Ces sites qui se contentaient de reprendre les données tiers afin de les comparer ont été pénalisés. C’est ce que Google considère comme des sites de faible valeur ajoutée. La firme cherchait alors à mettre en avant les contenus uniques, originaux et pertinents.

De très nombreux sites ont alors vu leur visibilité sur le Net chuter de manière vertigineuse. Avec aussi, quelques dommages collatéraux. C’est-à-dire des sites de qualité qui se sont vus pénalisés injustement.

panda algo google

De très nombreux sites ont alors vus leur visibilité sur le Net chuter de manière vertigineuse. Avec aussi, quelques dommages collatéraux. C’est-à-dire des sites de qualité qui se sont vus pénaliser injustement.

Pingouin en croisade contre le Spam

pingouin algo google

C’est en avril 2012 que le Pingouin de Google a débarqué sur le Web, donnant au passage quelques sueurs froides à certains. Matt Cutts, le grand gourou du référencement chez Google, avait dores et déjà prévenu que les effets de ce Pingouin seraient considérables. C’est dire si son impact été attendu avec inquiétude.

Le but déclaré était de pénaliser les sites utilisant des techniques de référencement abusives, comme le Spamdexing, Keyword stuffing, et le cloaking. Bref toutes les techniques dites « Black Hat » (à l’inverse du White Hat qui désigne les techniques autorisées). Ce qui est autorisé ou pas est indiqué dans les Tables de la loi de Google, c’est-à-dire les Google guidelines, véritable code juridique de ce que la multinationale accepte, ou non.

Les webmasters qui avaient cédé aux sirènes de ces pratiques peu orthodoxes en ont eu pour leurs frais et bien souvent ont payé le prix ultime.

La différence avec Panda est que ce dernier se concentre sur des critères de texte dupliqués entre autre, tandis que Pingouin concerne des critères de référencement extérieurs au sites comme les backlinks ( liens retours).

Le but était d’encourager les bonnes pratiques de SEO, par la force certes, mais cela a eu le mérite de contraindre nombre de référenceurs et webmasters à reconsidérer certaines pratiques efficaces mais dangereuses à l’emploi sur le long terme. Après Pingouin il est redevenu plus intéressant d’utiliser une stratégie pérenne, aux résultats moins spectaculaires mais qui s’inscrit dans la durée.

L’impact a été, il faut le dire, dévastateur notamment sur les sites évoluant dans des thématiques telles que le porno ou les jeux en ligne. On a estimé que 2.3 % des sites en anglais ont été impactés par la mise à jour.

Colibri, parlez avec Google

26 septembre 2013, un nouvel animal fait son apparition dans la ménagerie Google. Son nom Hummingbird, soit Colibri dans la langue de Molière. Le choix n’a pas été fait au hasard, le colibri étant rapide et précis. Il s’agit cette fois d’un changement en profondeur de l’algorithme, et non de nouveaux filtres comme c’était le cas avec Panda et Pingouin. Beaucoup de commentateurs ont comparés cela avec le changement d’un moteur sur une voiture. Contrairement aux autres sympathiques animaux, Colibri n’a pas vocation à infliger des pénalités aux sites, mais plutôt d’affiner la pertinence des résultats.

Il n’y a donc pas eu cette fois de pleurs et de grincements de dents chez les acteurs concernés du Web. En effet, cette évolution touche principalement les utilisateurs dans leur manière d’effectuer leurs requêtes sur le moteur de recherche.

C’est là que se trouve le coeur du changement apporté par cette nouvelle mise à jour : améliorer les « recherches conversationnelles ». Concrètement, Google répond à vos requêtes vocales, mais aussi affine ses résultats en fonction de vos recherches précédentes. Vous pouvez en outre poser une question au moteur de recherche qui vous répondra. Faites le test avec la requête « qui est le président de la France ? » ou alors « quel âge a François Hollande » et vous obtiendrez la réponse immédiate du moteur. Encore plus loin, l’algorithme prend désormais en compte les mots clés recherchés juste avant afin de déterminer si vos recherches successives sont liées entre elles.

Son action la plus prononcée concerne les requêtes vocales et celles qui sont dites de longue traîne. C’est-à-dire les requêtes longues, rédigées le plus souvent sous forme de questions. Par exemple, lorsque vous tapez « où acheter iphone 6 près de chez moi », le moteur, grâce à la géolocalisation vous proposera les magasins les plus proches de chez vous.

algo google colibri

Avec l’interprétation de données sémantiques, Google franchit encore un nouveau palier. Pour nous acteurs ou spectateurs du Web, ces changements nous concernent ou nous concerneront à un moment où un autre.
Help-Desk