Pourquoi Google a-t-il déréférencé des sociétés françaises de référencement, il y a quelques semaines de cela ? Quels sont les critères qui font que le moteur de recherche « blackliste » un site ? Jusqu’à maintenant, Google était resté très discret à ce sujet. Abondance a donc posé dix questions sur ce sujet à Matt Cutts, « software engineer » chez Google et très souvent porte-parole technique du moteur.

Matt Cutts a rejoint Google en tant que "Software Engineer" en janvier 2000. Auparavant, il travaillait à son "Ph.D. in computer graphics" à l'université de Caroline du Nord à Chapel Hill. Il a publié des articles sur le "bureau du futur" ainsi que sur la reconnaissance d'objet dans les images compressées. Matt a écrit l'applicatif "Safe Search", le filtre familial utilisé par Google. Il travaille également pour le Ministère de la Défense américain et a également étudié des projets pour une sociétés de jeux vidéo. Pour en savoir plus sur son parcours : http://www.cs.unc.edu/~cutts/.

Matt Cutts a accepté de répondre à nos questions (merci à lui) afin de clarifier la position du moteur au sujet du spamdexing. Un pierre supplémentaire à ajouter à l’édifice...

- Certains SEOs ont dernièrement disparu de l'index de Google, leur PageRank étant réduit à zéro. Est-ce une action délibérée de Google et pourquoi ?

La qualité de l’index et des résultats que nous fournissons à nos utilisateurs est de la plus haute importance pour nous. Google ne tolère pas le spam et encourage ses utilisateurs à dénoncer tout type de fraude qui pourrait nous aider à mettre en place de nouveaux algorithmes visant à bloquer toute tentative de ce type. De plus, lorsqu’un site met en place des tentatives continuelles et répétitives de spam, nous bannissons de notre index ses pages et / ou ses auteurs. Nous ne tolérons pas les sites qui s’engagent dans des procédures de spamming ou d’autres techniques visant à altérer leurs classements et à induire les internautes en erreur.

Parfois cependant, des problèmes techniques, comme le fait qu’un site soit « down » lorsque nos robots désirent le visiter, peut amener une absence temporaire d’une source d’information dans nos résultats. Cependant, il est clair que toute violation de nos « quality guidelines » sera, à l’avenir, sanctionnée par un blacklistage dans l’index.

NDLR : le moins que l’on puisse dire est que la réponse de Matt Cutts est d’une clarté limpide 🙂

 Pour avoir accès aux « quality guidelines » de Google, allez aux urls suivantes :

- En français :

http://www.google.fr/intl/fr/webmasters/guidelines.html

http://www.google.fr/intl/fr/webmasters/seo.html

- En anglais :

http://www.google.com/webmasters/guidelines.html

http://www.google.com/webmasters/seo.html

- Tous les SEOs et sites web dernièrement bannis en France l'ont-ils été pour la même raison ?

Non, pas obligatoirement. A chaque fois que Google effectue une action sur un site, cela se fait selon une procédure de « cas par cas ». Mais nous ne pouvons pas parler ici de cas individuels, désolé.

Fichier PDF téléchargeable ici (la lettre Réacteur n'était à cette époque-là disponible que sous cette forme).