Référencement naturel : prenez l’avantage sur la concurrence

Que vous soyez à la tête d’une PME, artisans ou exerçant une profession à votre compte, vous avez certainement mis en ligne un site web. Cependant, le site de vos concurrents a plus de vues, est mieux placé sur les moteurs de recherche, leur ramène plus de clients… Pourtant, votre site est beau, vous en êtes satisfait… Malheureusement, il est noyé dans la masse d’internet et ne vous sert quasiment à rien. Il est temps pour vous de vous pencher sur la nouvelle manne du web : le référencement naturel.

Vous avez dit SEO ?

Le référencement naturel représente peut-être un concept un peu abscons pour vous. Pour le comprendre un peu mieux, traduisons son nom anglais : Search engine optimization (ou SEO) soit l’optimisation de votre site web pour répondre aux attentes des moteurs de recherche.

En effet, si vous voulez que votre site soit vu, il faut qu’il se retrouve dans les premiers résultats lorsque les internautes, vos futurs clients, recherchent vos produits ou services. Or, ces premières places sont chères…

En effet, peu d’internautes s’aventurent plus loin que la première page de réponses (ou SERP en anglais pour : Search engine result page). Sur le moteur de recherche le plus présent au niveau mondial : Google, 95 % de clics interviennent sur la première page et plus du tiers sur le premier résultat « naturel », c’est-à-dire hors publicités ou liens sponsorisés.

On est d’accord : pour être vu, il faut avant tout être présent sur Google en première page des SERP. Les autres moteurs de recherche, même de qualité, ne représentent qu’un pourcentage infime d’utilisateurs.

Ainsi, pour favoriser le trafic sur son site, il faut complaire aux exigences des fameux robots d’indexation de Google : c’est la base du référencement naturel.

Avant d’aller plus loin, précisons que le référencement est dit « naturel » pour le différencier des résultats issus d’une campagne publicitaire Google Ads payante, anciennement Adwords.

Une stratégie SEO vise à optimiser votre site pour que Google le trouve et que, devant sa qualité, il l’affiche dans ses premiers résultats.

Cela passe, en résumé, par trois opérations complémentaires et différentes : l’optimisation technique et sémantique accompagnée d’une stratégie de backlinking ou d’optimisation des liens entrants vers votre site.

Le code qu’il faut là où il faut

Votre site est beau, il répond à vos attentes, à vos besoins… Mais peut-être pas à ceux des robots d’indexation de Google, autrement appelés spiders ou crawlers. Il suffit de quelques erreurs ou approximations dans le code des pages pour ralentir ou carrément refuser le passage des robots.

Ces crawlers imitent le parcours d’un internaute en suivant les liens de votre site mais envoient à Google le code HTML et le contenu de chaque page (textes, photos, vidéos,etc) et les liens externes et internes. La base de données de Google possède donc l’ensemble de votre site dans son index.

Entrent alors en jeu les fameux algorithmes et filtres du moteur de recherche qui vont analyser la base d’indexation pour répondre au plus près à la demande d’un internaute.

Il faut que les crawlers trouvent votre site, puissent le visiter et rapportent des données expliquant qu’il est de qualité.

Sur le plan technique, cela passe par l’optimisation du code, plus de 200 critères rentrent en compte. Comme tout est analysé, il faut être extrêmement précis à tous les niveaux : balises (title, meta description, etc), adresses des pages URL, liens, images, mots en gras, etc. Sans oublier le temps de chargement de chaque page et la fréquence des mises à jour qui peuvent tous les deux être pénalisant.

Des mots-clés qui vous ouvrent les portes de Google

Devant certains abus visant à gagner la pole position en détournant certaines règles de Google, l’entreprise a décidé de faire le ménage au niveau technique mais aussi au niveau des contenus et surtout des textes. Le moteur de recherche se nourrit de mots et il fut un temps où le vendeur de saucisses pouvaient mettre 10 000 fois le mot « saucisse » sans être inquiété sur une même page, en résumant bien sûr. Il ne faisait peut-être pas les meilleures saucisses du monde mais avait une bonne place dans les SERP.

En 2011, Panda voit le jour : c’est un filtre qui permet à Google de mettre l’équivalent d’une note au contenu d’une page et d’un site, en pénalisant fortement toute manipulation et entre autres les textes dupliqués ou intégrant trop de mots-clés.

Les textes de votre site sont peut-être intéressants, complets, mais peuvent d’un côté ne pas avoir assez de mots-clés correspondant aux recherches des internautes, de l’autre en avoir trop et vous faire pénaliser. Et cela est vrai pour tous les textes, y compris aussi les légendes des photos et des vidéos, les balises, les URL, etc.

De plus, il est préférable de proposer plein de pages proposant un seul texte lié à une seule idée, une thématique plutôt qu’un long pavé avec trop d’informations qui sera dur à lire pour Google mais aussi pour les internautes.

Voilà la base d’un SEO sémantique : écrire pour les moteurs de recherche ET pour les clients. Un équilibre pas si simple que cela.

Des liens passés au peigne fin

Lors des premiers temps de Google, ses créateurs se sont demandés comment proposer la meilleure réponse aux recherches et donc comment mesurer la qualité d’un site internet.

Ils se sont basés sur un des critères ayant cours dans le monde de la recherche : plus une étude est partagée, plus elle présente un intérêt, une sorte de bouche-à-oreille moderne. Il suffisait alors d’analyser les liens entrants (nombre, qualité, etc) sur une page pour lui donner une « note » : le PageRank. Les liens sortants sont a priori peu analysés.

Au début, c’était surtout le nombre de liens qui était pris en compte. Là aussi, il a fallu mettre le holà à des pratiques consistant à multiplier les liens externes de façon peu naturelle : achats et échanges, liens factices, faux commentaires sur les blogs ou forums, etc.

Un autre animal entre alors en jeu en 2012 : Google Pinguin pénalisant les sites augmentant leur popularité de manière factice.

Une bonne campagne de netlinking ou obtention de backlinks de qualité est ainsi devenue, au fil des ans, un passage obligé en SEO voire une des stratégies les plus efficaces. C’est aussi un des leviers les plus difficiles à manier, tant Google peut être pointilleux. Le netlinking doit être géré finement et dans la durée pour envoyer les bons signes à notre moteur de recherche préféré.

En conclusion, si votre concurrent est mieux placé que vous sur les moteurs de recherche, c’est certainement parce qu’il est passé par une campagne de SEO. 

Le référencement naturel doit faire complètement partie de votre stratégie marketing pour attirer de plus en plus de clients et dépasser la concurrence. Si vous n’avez pas encore de site internet, vous allez pouvoir marier son élaboration avec un référencement optimal. Si vous avez déjà un site, il ne peut qu’être amélioré. Dans tous les cas, il vaut mieux s’orienter vers une agence digitale de marketing ou une société spécialisée dans le SEO. Au vu du travail technique et sémantique à mettre en place, faire appel à des professionnels sera un gage de réussite et surtout du temps de gagné. De plus, ils auront les outils pour contrôler, à chaque étape, la pertinence des améliorations.