La dernière "Google Dance", dénommée Florida, a provoqué un raz-de-marrée parmi les webmasters qui se perdent en conjonctures sur les forums américains, de nombreux sites de commerce électronique ayant été déclassés sur des mots clés très commerciaux, et ce juste avant Noël. Manipulation de Google pour vendre plus de liens sponsorisés AdWords ou simple mise à jour de l'algorithme du moteur ? Nous avons demandé à Olivier Duffez, spécialiste de Googe, de nous donner son avis...

Par Olivier DUFFEZ, consultant en référencement (http://www.webrankexpert.com/) spécialiste de Google, éditeur du site WebRankInfo (http://www.webrankinfo.com/).

Les faits

Depuis toujours, les mises à jour de Google font des heureux et des malheureux : certains gagnent des places, et d'autres en perdent. Quoi de plus naturel ? Mais au cours de la "Google Dance" de novembre, baptisée "Florida" outre-Atlantique, les résultats ont été profondément modifiés. Pour résumer, des sites qui occupaient les premières places depuis des mois ont d'un seul coup disparu. La paranoïa s'est très vite répandue sur le net, encore plus que d'habitude après cette période de changement d'index. Pendant les premiers jours, des erreurs d'interprétation étaient parfois contredites par de simples exemples. Les résultats de Google peuvent en effet dépendre :

- Du "data center" utilisé pour répondre à la requête.

- Du site de Google utilisé (google.com ou google.fr).

- De la langue.

- Du nombre de mots utilisés dans la requête.

Il semblerait également maintenant que certaines requêtes soient concernées par un filtre... Mais quel type de filtre ?

Un filtre bayésien ?

Certains avancent l'hypothèse que Google aurait implémenté un filtre bayésien visant à détecter les pages faisant du spamdexing. Les filtres bayésiens (http://www.gfsfrance.com/mes/wpbayesian.htm) reposent sur une méthode probabiliste de détermination du degré de spam. Ils sont utilisés avec souvent beaucoup de succès dans les fonctions anti-spam des logiciels de messagerie. Dans le cas présent, certains pensent que Google cherche à détecter les pages faisant du spam à l'aide d'un filtre bayésien.

Le procédé n'est enclenché que pour certaines requêtes, celles qui portent sur un ou plusieurs mots jugés "à risques". Pour ces requêtes, si l'un des résultats est jugé "spammeur", il est supprimé des résultats. Par contre, les requêtes qui ne sont pas basées entièrement sur des mots jugés à risques ne sont pas concernées par ce filtre.

Pour mettre en évidence ce filtre, le site Scroogle (http://www.scroogle.org/) propose aux internautes de comparer les résultats avec et sans le filtre. Pour désactiver le filtre, il suffit en effet d'ajouter un ou plusieurs mots à la requête. Pour éviter de dénaturer la requête, il suffit d'ajouter un mot inconnu précédé d'un tiret. Par exemple, on va comparer la requête "hotels paris" à la requête "hotels paris -motinconnudegoogle" qui cherche les pages parlant de "hotels paris" mais ne contenant pas le mot "motinconnudegoogle". Autant dire que les résultats devraient être identiques - sauf si un filtre est appliqué dans un cas et pas dans l'autre.

Dans quels cas le filtre est-il appliqué ?

Cette question reste assez polémique… De nombreuses théories ont vu le jour dans les forums ou sur les sites web spécialisés. Certains pensent que Google applique son filtre dans le cas de requêtes "commerciales", qui correspondraient à des requêtes basées sur des mots achetés dans les AdWords. Cette théorie signifierait que Google appliquerait une pénalité à certains sites afin de les inciter à acheter des AdWords, source de revenus importants pour Google. D'autres ont émis l'hypothèse que les sites inscrits dans Froogle (http://www.froogle.com/) seraient favorisés... Des exemples ont montré que la langue influait : a priori seuls les mots anglais sont pour l'instant concernés par le filtre.

 

Fichier PDF téléchargeable ici (la lettre Réacteur n'était à cette époque-là disponible que sous cette forme).