Lors du récent SEO Camp'us, Sylvain Peyronnet et Kevin Richard ont présenté les résultats d'une étude à grande échelle qu'ils ont réalisée pour tenter de comprendre quels sont les vrais critères de pertinence d'un moteur de recherche comme Google. Cet article explique l'objectif de cette étude, la méthodologie utilisée ainsi que ses principaux résultats et les conclusions qu'on peut en tirer en termes d'importance relative d'un critère par rapport à un autre. Avec à la clé la fin de quelques mythes sur le SEO...

Ce mois-ci nous allons aborder un sujet que nous avons évoqué lors de la dixième édition du Seo Camp'us et plus précisément lors de la conférence "Les SERPs ont parlé : comment font ceux qui performent en 2018 ?" par Kevin Richard (créateur de l'outil Seobserver [1]) et Sylvain Peyronnet (votre humble serviteur).

L'objectif de cette conférence était de faire un retour assez succinct sur les résultats d'une étude des sites qui se positionnent bien en 2018, et grâce à Abondance, nous pouvons ici en donner une vision plus complète dans ces pages, pour le plus grand nombre.

Nota : Tous les résultats présentés dans ces articles ont été obtenus par le duo Kevin Richard - Sylvain Peyronnet.

L'objectif : valider ou invalider des hypothèses concernant les critères de positionnement

Le sujet de discussion préféré des référenceurs web est bien entendu Google et les positions des sites. Et il n'est pas rare de lire tout et son contraire concernant les trucs et astuces qui permettent de bien se positionner : il faut des liens, il ne faut pas de liens pourris, il faut du contenu, mais il faut du bon contenu, il faut remplir la meta keywords, ou pas, il faut… etc. Bref, un vrai folklore existe autour des critères de ranking, et c'est seulement par des études statistiques complètes qu'on peut espérer réussir à comprendre ce qui est important pour le moteur, et surtout ce qui ne l'est pas.

Tout d'abord, qu'est-ce qu'une étude statistique des critères de positionnement ? C'est finalement assez simple : il s'agit de prendre un grand nombre de mots-clés, un grand nombre de pages web plus ou moins bien positionnées pour ces mots-clés, puis d'analyser les caractéristiques de ces pages pour déterminer ce qui a été important pour le moteur dans la création des SERP associées.

Au delà de la méthodologie que l'on va expliquer plus en détails dans la suite de cet article, ce qui va compter est de formuler puis de valider ou invalider des hypothèses issues de notre expérience métier.

L'article n'est disponible ici que sous la forme d'un extrait.
Il est accessible en lecture intégrale uniquement aux abonnés à la lettre professionnelle « Réacteur » du site Abondance...

Cliquez ici pour vous abonner à la lettre 'Réacteur' !

Vous êtes déjà abonné ? L'article complet est disponible dans la zone "Abonnés". Cliquez ici pour vous identifier.

 

Plus d'infos pour les abonnés :

Plus d'infos pour les non-abonnés :