Bien référencer un site internet est un travail à la fois central et laborieux. On ne peut pas y échapper, car c’est la condition sine qua non pour que votre site soit visible sur internet dans les moteurs de recherche (et surtout sur Google). Pour booster son référencement rapidement, certaines personnes n’hésitent pas à recourir à des techniques SEO déconseillées et même prohibées par Google. Pour qualifier ces mauvaises pratiques, on parle de spamdexing ou bien de « Black Hat SEO », par opposition aux bonnes pratiques SEO dites « White Hat ». Le Black Hat SEO peut à court terme être efficace et payant, mais le risque est grand que Google vous repère et vous sanctionne un jour ou l’autre. A moyen et long terme, le SEO Black Hat s’avère donc contreproductif. Les sanctions peuvent aller d’une perte de positions dans les SERP à un blacklistage pur et simple (votre site n’apparaît plus dans Google). Pour vous prémunir de ces risques, il est important de connaître ces techniques déconseillées et interdites. Voici 8 des techniques Black Hat SEO les plus répandues.
1/ Le cloaking
Le cloaking (de l’anglais « cloak » : voile) est une technique qui consiste à présenter aux internautes un contenu différent de celui destiné aux moteurs de recherche. Sur n’importe quel site internet, il y a deux types de visiteurs : les internautes (humains) et les robots d’indexation des moteurs de recherche. Ces robots (Google Bots) « visitent » vos pages afin de les indexer dans le moteur de recherche. L’idée générale, avec le cloaking, est de présenter aux robots une page suroptimisée (bourrée de mots-clés notamment) et aux visiteurs une page « normal », classique, lisible. Le cloaking permet également d’afficher des pages différentes d’un internaute à l’autre, en fonction de sa localisation ou de l’appareil de navigation utilisé (desktop ou mobile). Même si l’URL de la page est la même, robots et internautes accèdent à deux pages différentes. Techniquement parlant, on utilisera, pour le cloaking, les champs http User-Agent afin d’identifier les types de visiteurs. Cette technique, comme toutes les autres que nous allons voir, est bien sûr interdite.
Pour en savoir plus sur le sujet, vous pouvez visionner la vidéo de Matt Cutts dans laquelle celui-ci explique en quoi consiste la méthode du cloaking.
2/ Les pages satellites
Une page satellite est une page conçue uniquement pour améliorer la visibilité d’un site internet. Il s’agit d’une page suroptimisée sur un mot-clé en particulier, sur une requête précise. Elle n’a aucun intérêt pour le visiteur mais permet de générer du trafic depuis les moteurs de recherche. Généralement, on utilise une technique de redirection pour éviter que les visiteurs n’atterrissent sur cette page satellite. De cette manière, la page qui apparaît dans les SERP (pages de résultats) est la page satellite tandis que la page d’atterrissage est la page destinée aux visiteurs « humains ». Une landing page peut ainsi accroître son trafic à l’aide de plusieurs pages satellites redirigeant vers elle. Cloaking et pages satellites sont deux techniques très proches.
On parle aussi parfois de sites satellites. Le principe est le même : vous créez plusieurs sites suroptimisés du point de vue SEO ayant pour unique fonction de générer du trafic. Sur ces sites satellites, vous faites des liens vers votre site principal. Les sites satellites, inintéressants pour les internautes, permettent ainsi de booster le trafic du site principal.
3/ Les textes cachés
Les textes cachés désignent tous les contenus qui n’apparaissent pas aux internautes mais qui sont pourtant visibles par les robots d’indexation des moteurs de recherche. La plupart les textes cachés sont des textes ultra-optimisés pour le référencement dont le contenu est très pauvre, voire illisible. Le cas extrême étant la pure et simple suite de mots-clés. Exemple : « trouver avocat Paris, trouver avocat Lille, trouver avocat Marseille, trouver avocat Bordeaux, etc. ».
Il existe plusieurs techniques pour produire du contenu caché :
- Mettre le texte à cacher dans la même couleur que celle de l’arrière-plan du site (texte blanc sur fond blanc par exemple). Le contenu se fond ainsi littéralement dans le décor. C’est la technique la plus simple et la plus ancienne. Le développement de nouveaux langages (CSS et JS) a ouvert la voie à d’autres techniques, plus complexes.
- Placer le texte derrière une image, grâce aux CSS.
- Placer le texte en dehors de l’écran, grâce aux CSS.
- Incorporer du texte en police 0 est une autre solution, assez basique.
Carré blanc sur fond blanc de Malevitch :
Il est possible aussi de cacher des liens, en utilisant des ancres quasi-invisibles pour l’internaute (un trait d’union par exemple) ou bien en utilisant du langage JavaScript afin de faire apparaître le lien quelques secondes seulement après que la souris se soit positionnée sur l’ancre. Le site Le Monde est connu pour avoir eu recours à ce genre de procédés pendant un temps afin de suroptimiser son maillage interne : concrètement, dans les articles de presse du Monde, les verbes à l’infinitif renvoyaient vers les pages de conjugaison. Le Monde a compris les dangers de cette pratique et a fini par faire machine arrière.
4/ Le duplicate content
Le duplicate content (contenu dupliqué en français) est une pratique qui consiste à copier-coller une partie du contenu d’une page A vers une page B. Le duplicate content peut être partiel (si vous copiez-collez un paragraphe par exemple) ou total. Le duplicate content concerne bien sûr le cas où les pages A et B appartiennent à deux sites différents, mais il concerne aussi deux pages d’un même site. Le duplicate content peut donc être externe (deux pages de deux sites) ou interne (deux pages d’un même site). Dans le premier cas, il s’agit clairement de plagiat, de vol de contenu. Dans le deuxième cas, il peut s’agir d’une manière de gagner du temps.
Le duplicate content est sanctionné par Google. On pourrait même dire lourdement sanctionné. C’est une pratique à éviter à tout prix, d’autant que le duplicate content est très facile à détecter, comparé à d’autres techniques. Evidemment, le vol de contenu peut, en plus de dégrader votre référencement, entraîner des actions juridiques de la part des victimes du plagiat.
Bien sûr, il est impossible d’éviter entièrement le duplicate content, lorsque vous faites une citation par exemple. L’idée à retenir est que le duplicate content doit représenter une très faible part de votre contenu (moins de 10%) pour ne pas encourir les risques de sanctions. Techniquement, il est aussi possible de générer du duplicate content sans le vouloir. Par exemple, s’il est possible d’accéder à une page de votre site via deux URL différentes, cela crée du duplicate content. Pour Google, à chaque URL doit correspondre un contenu différent. Il peut être utile dans certains cas de faire appel à un spécialiste SEO pour s’assurer que ce genre de problèmes techniques n’existe pas et le résoudre le cas échéant.
Le petit + : prenez soin de définir pour chaque page de votre site une balise Title et une balise Meta Description uniques. Le duplicate content ne concerne pas seulement le corps de texte, mais toutes les balises HTML.
5/ Le keyword stuffing
Qui dit référencement dit mots-clés. Pour se positionner sur telle ou telle requête dans Google, il faut utiliser dans le contenu de son site les mots-clés qui correspondent à ces requêtes. Un mot-clé, par exemple « trouver avocat à Paris », doit se positionner à tous les niveaux de la page pour que cette page puisse avoir des chances de bien se positionner dans les résultats de Google (sur la requête « trouver avocat à Paris » par exemple). A tous les niveaux, cela signifie : dans le title, dans la meta description, dans le H1, dans l’introduction, dans un ou plusieurs H2 (sous-titres). Fort de ce constat (le rôle capital des mots-clés), certains sites ont tendance à en faire trop et à bourrer leurs contenus en mots-clés. C’est la définition du keyword stuffing (bourrage de mots-clés). Exemple typique de keyword stuffing : faire apparaître 5 ou 6 fois le mot-clé dans la meta description, ou plus de 50 fois dans un texte de 500 mots. La pire méthode consiste à aligner des mots-clés séparés par des virgules. Ces pratiques dégradent la qualité des contenus et donc l’expérience utilisateur mais peuvent aussi, en plus de ça, être repérée par Google…et sanctionnée. Au moins depuis la mise à jour Pingouin de l’algorithme de l’entreprise de Montain View. De nombreux sites ont déjà été pénalisés du fait de cette mauvaise pratique SEO.
Les pratiques « Black Hat » SEO peuvent se combiner entre elles. Ici, concrètement, on voit bien que le grand avantage des textes cachés est de permettre à un site de faire du keyword stuffing sans que cela ne dégrade l’expérience du lecteur.
6/ Les fermes de contenu
Les fermes de contenu ont compris que le contenu était l’un des principaux leviers de référencement, au point d’en abuser. Une ferme de contenus – ou « usine à contenus » – est un site éditorial qui publie des centaines, voire des milliers d’articles peu qualitatifs dans le seul but de générer du trafic via les SERP et les revenus publicitaires qui vont avec. Une ferme de contenus aura tendance par exemple à cibler tous les sujets susceptibles de générer du trafic. Les fermes de contenu ont une approche focalisée sur la demande (quels sont les sujets demandés ?) et non sur l’offre. Certains sites, comme Melty, ont mis en place des algorithmes permettant de détecter à tout instant les sujets d’actualité brûlants afin d’être le plus réactif possible. Evidemment, seuls les sujets susceptibles de générer une forte audience sont traités. D’autres fermes ont mis en place des générateurs automatiques de contenus, grâce auxquels il est possible de produire des articles sans duplicate content en un minimum de temps.
La qualité rédactionnelle des articles créés par les fermes de contenus est toujours très médiocre. Pour limiter les coûts de production, les fermes de contenus ont recours à des armées de stagiaires, à des rédacteurs bénévoles ou des freelances off-shore. Google, là encore, a décidé depuis plusieurs années de faire le ménage et de dégrader les positions des fermes de contenus. Certaines ont même été blacklistées. Et on peut le comprendre : les fermes de contenus contribuent à dégrader la qualité et la pertinence des résultats de recherche de Google. C’est le principal argument du géant californien (la pertinence des SERP) qui est ici en jeu.
7/ Les échanges de liens
Le netlinking est un élément clé du référencement, comme nous l’expliquions déjà dans notre article consacré aux fondamentaux du netlinking. Pour créer des backlinks, l’échange de liens est une pratique très utilisée. L’idée est simple : un site A fait un lien vers un site B, en échange de quoi le site B fait un lien vers le site A. Les liens peuvent être placés à l’intérieur d’articles, mais aussi dans le foote, dans un side-bar, etc. C’est du gagnant-gagnant, surtout si les deux sites ont des thématiques proches. Sauf que bien sûr, pour Google, un lien n’est pertinent que s’il est naturel, s’il a été fait uniquement en raison de la pertinence de la page linkée et non en vertu d’un contrat. Cette pratique de l’échange de liens est désormais sanctionnée. Nous vous déconseillons donc d’abuser de cette technique. Si vous souhaitez quand même le faire, évitez 1/ d’industrialiser cette pratique et 2/ de placer les liens obtenus dans le cadre d’échanges dans les parties statiques de votre site (le footer, les sidebars, etc.). Placez ces liens dans des contenus éditoriaux (articles de blog par exemple).
Recevez nos actualités chaque semaine
En vous inscrivant vous acceptez notre
politique de protection de données
personnelles.
Les 3 meilleurs logiciels de SEO
Nos autres articles en liens avec SEO
La recette pour rédiger le meilleur article du web sur n’importe quel sujet
Historique

Aucun commentaire