Navigation

Toutes les catégories

Filtrer par auteur

Voir les derniers articles

Black Hat SEO  : définition et techniques du negative SEO

Le nombre d’entreprises qui font la promotion de leurs services et produits en ligne est plus important que jamais, et la concurrence est féroce, même dans les marchés dits « de...

Publié par Elodie

Le nombre d’entreprises qui font la promotion de leurs services et produits en ligne est plus important que jamais, et la concurrence est féroce, même dans les marchés dits « de niche », Tout propriétaire de site web essaie de renforcer sa visibilité en ligne, et tente de se démarquer des autres en utilisant tout l’arsenal des pratiques de référencement disponibles.

Malheureusement, la bataille est devenue si dure que certains spécialistes du référencement ont recours à des stratégies erronées et manipulatrices pour promouvoir leur site internet et obtenir un meilleur classement dans les moteurs de recherche. Ces pratiques sont connues sous le nom de Black Hat SEO, et peuvent apporter plus de mal que de bien à votre entreprise.

Dans cet article, nous allons parler plus en détail de ce qu’est le Negative SEO et comment il peut nuire à votre site. Nous allons également dresser une liste des principales techniques de Negative SEO, que vous devez surveiller pour ne pas recevoir une pénalité de Google et compromettre la réputation de votre site.

 

Qu’est-ce que Negative SEO ?

Negative SEO
©Pixabay

Le Negative SEO, ou référencement négatif est un ensemble d’actions destinées à abaisser le classement d’un site dans les pages de résultats des moteurs de recherche. Si les développeurs web peuvent parfois nuire à un site sans le vouloir, le référencement négatif est presque toujours intentionnel et malveillant : c’est pourquoi il est souvent associé à du piratage. Dans le cadre de cet article, nous ne considérerons que les activités réalisées intentionnellement.

Les motivations de ceux qui mènent des attaques de Negative SEO sont variables : lorsqu’une attaque est dirigée contre une entreprise, les suspects probables sont :

  • Ses concurrents, qui profiteraient d’une chute de l’entreprise visée dans les SERP, toutefois le gain monétaire n’est cependant pas la seule motivation.
  • Les développeurs web « non éthiques » peuvent en effet effectuer une attaque pour faire une déclaration politique, ou pour servir une cause personnelle.
  • Ils peuvent enfin avoir une dent contre l’entreprise ciblée ou, ce qui est peut-être la raison la plus alarmante, simplement par plaisir.

 

Brève histoire du Negative SEO

Le Negative SEO est né à la faveur d’un changement dans la politique de classement des recherches de Google : avant 2012, aucune sanction n’était prévue pour les spécialistes du référencement ou les entreprises qui achetaient de nombreux liens pour améliorer le classement d’un site.

Tout lien que Google considérait comme « spammy » était purement ignoré, ce qui n’affectait pas le classement du site lié. Mais en avril 2012, la mise à jour de l’algorithme de Google, Penguin, est venu complètement changer la donne. Après cette mise à jour, tout site ayant des liens « spammy » a été sévèrement pénalisé, bouleversant brutalement le classement de nombreux sites.

Bien sûr, cela a conduit à des résultats de recherche plus justes, et à une meilleure qualité de ces résultats, mais cela a créé une nouvelle opportunité pour ceux qui ont de mauvaises intentions. Le référencement négatif a donc commencé le jour où des développeurs web malhonnêtes se sont mis en tête de créer des liens « spammy » vers leurs rivaux, et depuis la boîte à outils du référencement négatif n’a cessé de s’étoffer.

 

Les principales techniques de Negative SEO

Hacking
©Pixabay

Link Farming

Une ferme de liens est une galaxie de sites web connectés entre eux ; chaque site renvoie à chaque autre site de la ferme. Cela avait pour effet d’améliorer la popularité des liens, et a conduit de nombreux propriétaires de sites à acheter des liens provenant de ces fermes. Lorsque l’algorithme Penguin a été mis en ligne, Google a pu repérer les backlinks provenant de ces fermes de liens et a infligé des pénalités pour leur utilisation.

Nous l’avons vu plus haut, c’est à ce moment-là que les spécialistes du référencement Black Hat ont vu l’opportunité de réutiliser les fermes de liens en les détournant de leur objectifs premier, dans le but de faire dégringoler leurs cibles dans les résultats de recherche.

Scraping

Ici, l’objectif est de diffuser du contenu copié sur plusieurs sites – autant que le robot scraper peut en gérer. Cette tactique exploite une autre mise à jour de Google, Panda : cette mise à jour a été conçue pour lutter contre le contenu dupliqué : Lorsque Google détecte le même contenu sur plusieurs sites, il ne classe qu’une seule version, la plus ancienne. Mais si le contenu copié (scrapé) est détecté par Google avant l’original, c’est le contenu scrapé qui est classé, et l’original ne le sera pas.

Hacking de site

Pour les « black-hats » qui ont quelques compétences en programmation, l’une des premières pages du manuel du parfait pirate consiste à modifier le contenu d’un site Web. Ce type d’attaque peut couvrir un large éventail d’activités. Les premières choses qui viennent à l’esprit sont la réécriture des paragraphes d’une page, l’utilisation d’un langage grossier ou d’images offensantes.

Ce type d’altérations n’est cependant pas dans l’esprit d’un pirate avisé ; des changements importants et très visibles sont facilement détectés.

Alors, pour tirer un maximum de profit, les modifications doivent être à la fois efficaces et discrètes. Il existe des moyens de dissimuler des liens et du contenu « spammy » afin qu’ils ne soient visibles que dans le code. Les actions de ce type sont détectées à l’aide d’outils d’audit de sites internet, qui repèrent toute modification non planifiée d’un site.

Parfois, un individu malintentionné n’a pas pour objectif de « descendre » un site internet, il peut vouloir au contraire profiter d’un bon référencement pour le détourner à son propre compte, et bien sûr cela finit par affecter le référencement de ce site de manière négative également.

Les moteurs de recherche cherchent à protéger leurs utilisateurs des virus, des logiciels malveillants, des logiciels espions et de tout autre code malveillant et voient d’un mauvais œil les sites qui les propagent, intentionnellement ou non.

Si un site est piraté, et qu’un moteur de recherche s’en rend compte, il peut dévaloriser le site ou ajouter un avertissement « site piraté » dans les SERP. L’une ou l’autre de ces mesures aura une incidence négative sur le classement du site.

Pire encore, si un pirate parvient à installer un logiciel malveillant sur un site, il peut exposer chaque utilisateur qui visite le site. Comme il s’agit souvent du type d’attaque le plus sophistiqué et le plus dommageable, la défense contre ce type d’attaque nécessite une préparation approfondie.

Les options défensives comprennent la mise à jour régulière des logiciels, la méfiance à l’égard du langage SQL, du XSS et du texte des messages d’erreur, ainsi que l’utilisation du protocole HTTPS. Les conséquences peuvent aller jusqu’à la désindexation totale du site.

 

Notre conseil

Nous vous conseillons vivement de ne pas essayer l’une des techniques « black hat » que nous avons mentionnées dans cet article. Restez plutôt fidèle à des stratégies de référencement éprouvées qui ne violent en aucune façon les consignes de qualité de Google.

Privilégiez un contenu de qualité et des liens obtenus de façon honnête. Tôt ou tard, vos efforts seront récompensés.

5
/
5
(
1

vote

)
Lire la suite de l'article

Newsletter WebActus

Abonnez-vous pour recevoir notre sélection des meilleurs articles directement dans votre boîte mail.

Nous ne partagerons pas votre adresse e-mail.

Articles similaires

Webmarketing

32 millions de visiteurs uniques pour Twitter

Techcrunch vient de publier, via les statistiques de Comscore, le nombre de visiteurs uniques pour Twitter : 32 millions. Il dépasse ainsi d’autres sites comme Digg ...

Publié le par Team WebActus
Webmarketing

Google annonce de nouvelles méthodes pour remplacer les cookies tiers

Google continue son chemin vers un monde sans cookies tiers. L’article Google annonce de nouvelles méthodes pour remplacer les cookies tiers a été publié sur BDM.

Publié le par Estelle Raffin