On ne peut bien sûr pas nier l'importance des liens (backlinks) dans une stratégie SEO. Aussi, de nombreux outils (Majestic, Ahrefs, Moz, Sistrix et bientôt Babbar) tentent de reproduire cet écosystème pour founir de la data et des indicateurs quantitatif et qualitatif aux webmasters et référenceurs qui veulent en savoir plus à ce sujet. Tous ces outils se heurtent au quotidien à de nombreux obstacles, tant le paysages des liens est complexe à analyser et à traiter. Voici pourquoi...

Par Sylvain Peyronnet


Le SEO n’est plus une discipline si jeune que cela, et depuis qu’elle existe, il existe toujours une forme de consensus sur le fait que l’un des signaux les plus importants pour le moteur de recherche est celui du “profil” de liens d’une page web.

Si ce consensus existe, c’est pour une raison pragmatique d’abord : quand on fait des liens de bonne qualité, on s’aperçoit vite que c’est bon pour monter dans la SERP, mais il existe aussi car Google a bâti toute sa notoriété des premières années sur un algorithme qui détermine l’importance des sites web via l’analyse des liens créés vers les pages desdits sites (“un lien = un vote”). Cet algorithme est bien entendu le PageRank (voir référence [1]).

Une fois n’est pas coutume, nous adopterons dans cet article un point de vue un peu différent de ce que nous faisons d’habitude. En règle générale, on ne parle que de ce que fait le moteur, mais quand on parle de profil de liens, on rentre dans des aspects un peux nébuleux car le moteur ne communique pas trop sur le sujet.

Nous allons donc ici aborder rapidement les critères qualitatifs d’un bon lien, mais très vite, nous allons adopter le point de vue des opérateurs qui fournissent de la data sur les liens, pour que vous compreniez que la tâche est difficile. Difficile ? Oui, à un point qui fait qu’il faut toujours rester vigilant sur les décisions que l’on prend avec la data fournie.

Le bon lien et le mauvais lien, un peu la même histoire que le bon et le mauvais chasseur ?

A la base, un bon lien c’est assez simple : c’est un lien fait sur un site de bonne qualité, par un humain qui pense que le site lié est lui aussi de bonne qualité et apporte une information supplémentaire à celle apportée par l’information contenue dans la page source du lien.

Par ailleurs, quand on a plusieurs bons liens, on peut les trier par importance, c’est-à-dire par popularité de la page qui émet le lien.

Bien entendu, le moteur n’a qu’une vision algorithmique de cette notion de lien bon et important. Dès 1998 l’algorithme du PageRank capte la notion d’importance. Il est intéressant de noter qu’à l’époque, on considère que tous les liens sont bons, et on ne se concentre donc que sur le calcul de l’importance.

Cela nous fait sourire aujourd’hui, mais il ne faut pas oublier que le Web des débuts n’est pas monétisé de manière forcené par les SEOs et donc que la plupart des liens sont faits en toute honnêteté.

Très rapidement, les chercheurs en algorithmique du Web vont se retrouver confrontés à du spam structurel (les fermes de liens, ancêtres des PBN de maintenant, voir référence [2]) faits à partir de sites construits uniquement pour le linking, parfois en récupérant des expirés, qui sont remplis de contenus de mauvaise qualité. Pour pallier tous ces problèmes, un grand nombre d’algorithmes vont être créés, pas tous d'ailleurs déployés par des moteurs de recherche. On trouve notamment parmi ceux-ci le Trustrank, l’anti-trust, la spam mass, la détection de liens népotiques, etc. (voir les références [3] à [8]).

Ensuite, le modèle du PageRank thématique va être mis en place (référence [10]) grâce à Taher Haveliwala, puis la notion de confiance thématique va apparaître (référence [11]). Ces modèles plus évolués ont tous pour but de fournir une vision plus réaliste du comportement des internautes lorsqu’ils suivent les liens entre pages web. Chez Google, la vision va culminer avec la notion de PageRank raisonnable (référence [11]) qui prend en compte l’emplacement des liens pour mieux comprendre le comportement des internautes. Une analyse étant faite a priori pour savoir quel emplacement est réellement important pour les visiteurs.

Enfin, je finirais cet inventaire à la Prévert par la référence [12], qui aborde le sujet de la décote à mettre sur les liens qui pointent vers des ressources qui ont changé. L’objectif de ce type de méthode est de pénaliser le rachat de domaines puissants pour bénéficier d’un boost au démarrage (les stratégies à base d’expirés donc).

La problématique de reconstituer la même information, sans être Google

Il existe de nombreux opérateurs qui se proposent de crawler le Web pour fournir des informations sur les backlinks afin de donner un profil de liens le plus sincère possible, permettant aux SEO d’affiner leur stratégie de visibilité en général, et celle de linking en particulier.

La suite de cet article est réservée aux abonnés.

Sylvain Peyronnet, fondateur de la régie publicitaire sans tracking The Machine In The Middle (http://themachineinthemiddle.fr/).