Visuel SEO netlinking

SEO : les secrets d'un netlinking efficace

Pour calculer la notoriété d’un site et sa position, l’algorithme de Google se base principalement sur les contenus et les liens. 

Ces deux éléments sont complémentaires puisque les liens permettent de rendre visible le contenu des sites web. Et sans contenu, le travail de netlinking ne porte pas ses fruits : cette conférence de Paris Retail Week 2019 revient sur les bonnes pratiques de référencement naturel.

Comment travailler le SEO d’un site web ?

L’algorithme de Google répond à des règles particulières qu’il importe de bien comprendre pour être référencé convenablement.

L’analyse des liens

Lorsqu’on parle de lien, on fait une analogie avec le « jus SEO ». Les liens transmettent des informations à l’algorithme de Google, qui calcule la notoriété du site. Plusieurs critères d’analyse sont pris en compte :

  • Page Rank : malgré les idées reçues, il est toujours présent dans l’algorithme Google.
  • Page Rank Thématique : les sites sont classés dans certaines catégories.
  • Sémantique : si le lien pointant vers le site à référencer se trouve dans un environnement sémantique proche de lui, l’impact sur le référencement est meilleur. La sémantique est contextuelle. Si la page faisant un lien aborde une thématique similaire au sein d’un site dont l’environnement est lui-même proche du site à référencer, les signaux positifs s’accumulent.
  • L’ancre (segment de contenu sur lequel est fait le lien) : critère important pour Google pour monter sur une requête. C’est un signal positif, mais il ne faut pas en abuser. Le programme Google Pingouin détecte les ancres suroptimisées, ce qui peut pénaliser le SEO.

L’un des outils pour mesurer le jus SEO est Majestic, qui offre à l’utilisateur une visibilité sur son « citation flow » (page rank) et son « trust flow » (indice de confiance). Plus on est proche d’un site faisant référence dans une thématique précise, plus on a de chances que le site à référencer le soit également.

Le netlinking s’effectue à l’extérieur du site, mais le maillage interne est également très important. Une page reçoit du jus et le divise par le nombre de liens : c’est la page d’accueil d’un site qui reçoit le plus de jus, il importe donc d’organiser efficacement les liens internes pour ne pas en faire perdre aux pages les plus pertinentes.

Comment l’algorithme Google comprend-il les pages ?

Pour analyser l’intégralité du contenu présent sur un site web, les algorithmes Google procèdent à une comparaison entre ses pages et les autres pages présentes sur Internet. Cette comparaison se base sur l’utilisation des mots clés. Un moteur de recherche voit un contenu comme un point dans un repère qui a autant de dimensions que de mots clés.

« un moteur de recherche va comparer une page à une requête, tout simplement en calculant le cosinus de l’angle formé par les vecteurs, et ça va lui permettre de savoir quelle est la page la plus pertinente par rapport à la requête. »

Mikaël Priol

C’est la raison pour laquelle la sémantique et les mots situés dans un site web sont importants.

Si deux documents se ressemblent beaucoup, les vecteurs se superposent : c’est le « duplicate content », qui pénalise le référencement naturel.

Comment structurer les contenus ?

En contenu SEO, il existe une façon courante d’organiser ses pages : le cocon sémantique. Une page mère fait des liens vers des pages filles : à l’intérieur de chaque catégorie, il est possible de faire des liens, mais pas entre les différentes catégories. L’objectif est de préserver la pertinence sémantique et d’éviter de diviser le jus SEO.

Il existe également la grappe sémantique, qui consiste à pousser la page visant à convertir les visiteurs en la liant à un groupe de pages profondes. La sémantique de ces pages profondes entre dans le détail de la thématique abordée. Ces grappes d’informations servent le trafic sur les pages de conversion (pages produits/services, home page, etc.).

Quel est le lien entre contenu et netlinking ?

Google est un moteur de recherche prédictif : sur une requête, il s’attend à retrouver certains mots clés, dans un certain nombre d’occurrences. Tout cela en évitant de faire du bourrage de mots clés et de suroptimiser.

Par ailleurs, en SEO, le trafic n’est pas pris en compte par Google pour mesurer l’impact d’un lien. Il mesure le page rank, le page rank thématique et la proximité sémantique entre les pages. En revanche, une page qui a du trafic reçoit a priori du bon jus et a des chances d’améliorer le référencement naturel d’un site web.

L’exemple de la start-up Depopass

Depopass est une start-up aujourd’hui fermée, mais son exemple illustre les bonnes pratiques SEO. Elle proposait une solution de paiement en ligne pour sécuriser les achats de voiture et s’est fait racheter par des banques connues.

Son trafic stagnait à 5 000 recherches mensuelles pour un volume de recherche de 6 700 concernant le nom de marque : celui-ci était donc principalement à l’origine du trafic constaté. En retravaillant le contenu et en ajoutant 10 pages sur le site, le trafic et les mots clés positionnés ont considérablement augmenté.

L’exemple d’un site e-commerce anonyme

En avril, ce site e-commerce était à 1 000 visiteurs par jour, avec des pages de contenu produit de 800 mots, des pages d’information de plus de 1 000 mots et un site irréprochable sur le plan technique. Mais il ne disposait que de 18 domaines référents, qui plus est des annuaires. En commençant le netlinking, ce site est passé à 150 domaines référents et à 7 000 visiteurs par jour.

Initialement, il n’avait que peu de liens thématisés. Le netlinking a thématisé les liens sur le shopping pour lui donner davantage d’autorité.

Quels sont les secrets d’un netlinking efficace ?

Il est difficile de trouver un lien puissant, ayant du page rank sur la bonne thématique et avec la bonne sémantique. Ce lien se trouve uniquement chez le concurrent, et ce dernier n’a pas envie de le faire. Par ailleurs, un seul lien ne serait pas suffisant pour une optimisation SEO. En revanche, il est possible de fournir des données décomposées à l’algorithme en sélectionnant de petits sites qui n’ont pas forcément un gros trafic.

Intervenants :