Le référencement responsable ou le seo spam: le quid du filtre Google Pingouin

Le filtre Google Pingouin : une remise en cause totale du système SEO… ou pas…

Depuis des années les agences web proposent du référencement à leurs clients. Derrière ce mot, on peut dénoter un objectif commun : placer le client en tête des résultats des recherches naturelles sur les moteurs (marché dont Google possède environ 90% des parts). En revanche quand on aborde la question des moyens mis en oeuvre, on trouve à peu près tout et n’importe quoi.
Certaines agences sont complètement arrivistes. Elles utilisent des moyens détournés comme le spam (exemple : faire un site web de milliers de page pour un restaurant, dont certaines pages ne sont que des liens internes, ceci dans le but de tromper les moteurs de recherche sur le contenu du site). Pendant des années ces agences ont eu de beaux résultats, même si elles utilisaient du Black Hat, c’est à dire une forme de « triche » si on considère que Google peut dicter des règles de bonnes conduite. Aujourd’hui, le filtre Google pingouin, est censé remettre ces pratiques en cause, mais il risque aussi de jeter bébé avec l’eau du bain. Bilan et opinion personnelle dans cet article de Johan Giusti.

Il était une fois le référencement….

L’histoire du référencement est jalonnée de remises en questions. D’abord il fut un temps où soumettre son site à un annuaire (en particulier DMOZ) était suffisant. Les agences SEO collectionnaient donc les belles listes d’annuaires et l’acquisition de liens externes suffisait. La recette semblait déjà simple, mais déjà les spammeurs du web avaient trouvé comment exploiter le système. Hop, un petit logiciel de soumission automatique et c’était des centaines voire des milliers d’inscriptions dans les annuaires qui étaient effectuées. Votre site obtenait ainsi une masse de liens externes censée indiquer à Google que votre site était populaire. Dans le temps, les annuaires sont devenus plus qualitatifs, demandant une description longue et unique de votre site pour l’indexer. Google devenant capable d’identifier le contenu dupliqué (duplicate content) sur un site et un autre à l’identique, il n’indexait que le plus récent des deux (pour faire simple).

 

Les communiqués de presse sont également entrés dans la danse. Contre un article de plus de 300 mots, correctement rédigé, les communiqués de presse (CP) proposaient aux éditeurs d’insérer des liens ancrés, c’est à dire un lien sur une expression à l’intérieur du texte. L’ancre était ainsi censée indiquer à Google que le site de destination était pertinent sur la requête ancrée, ce qui améliorait sa position dans les SERP (=Search Engine Page Result = la page de résultat d’un moteur de recherche).

Pendant ce temps les spammeurs…

Parlons en. Ces derniers vous avaient déjà séduit avec leur logiciel de soumission à 10 000 annuaires. Ce sont-ils ennuyer à rédiger des CP pour y insérer quelques malheureux liens ? Pas du tout. Eux avaient déjà « tout compris ». Certes comme les référenceurs pro White Hat (comprenez ceux qui évitent le spam ou les autres pratiques négatives que Google demandent de bannir), les spammeurs travaillent les 2 mêmes aspects mais à leur façon :

  • L’optimisation on-site » (en créant par exemple sur leur sites des milliers de pages, dont certaines uniquement avec des liens internes sur les expressions clés que ciblent le client)

  • L’optimisation off-site », avec une stratégie d’acquisition de liens borderline. Par exemple, en créant des mini sites dont le nom de domaine répond à la thématique client, puis en redirigeant des pages de ce mini site vers le vrai site du client. A cela vous pouvez ajouter l’échange massif de liens en pied de page, sans cohérence avec la thématique du site qui fait le lien et celui qui le reçoit. L’objectif était la quantité, pas la qualité

Bref les spammeurs travaillaient loin des Guidelines du sacro saint Google, mais force est de constater qu’ils avaient du résultat (évidemment je ne dresse ici que le portrait des techniques dont j’ai connaissance, d’autres existent sans doute et de façon plus élaborée).

 

SEO responsable ou non… le dilemme

Alors pour les référenceurs en tout genre, car je considère que le niveau importe peu quant à ce genre de dilemme, la question qui se posait était simple. Fallait-il opter pour les solutions qui fonctionnent pour l’instant ou pour celles qui sont plus longues mais a priori pérennes? Le dilemme est d’autant plus dur quand le segment que vous visez pour votre client, place en tête de SERP les sites des concurrents, avec du Black Hat à fond les manettes…

Quoiqu’il en soit, Google est intervenu plusieurs fois pour donner un coup de pied dans la fourmilière. D’abord avec le Filtre Panda il y a même pas un an, qui était censé lutter contre les fermes de liens, c’est à dire des sites dont la vocation n’était que de fournir des liens à tout va sans cohérence de contenu. Plus récemment (autour du 24 Avril 2012) un autre filtre a été déployé, il s’agit du filtre pingouin. Ce dernier vise à limiter les impacts du SEO (Black et White il semblerait) en diminuant l’influence des liens externes reçus par les sites.

Alors dans quelle mesure la pondération s’effectue? Les référenceurs débatent à ce jour encore du sujet. Ne connaissant pas l’algorythme, les déductions empiriques prennent toujours plus de temps à réaliser. Certains ont vu leurs sites s’écrouler dans les SERP, ce qui pour certains sites e-commerce, coute très cher chaque jour. Grosse dépression pour certains ! D’ailleurs, cela fut l’occasion de relancer le débat, sur les pratiques White ou Black des agences. Force est de constater qu’à mon sens, la majorité oeuvrait dans une forme de gris ! Toujours est-il que certains white ont été touchés, certains black aussi… les leçons ne sont pas tirées clairement pour l’heure quant aux causes.

Pour ma part j’ai toujours considérer que chez Winsiders nous faisions du référencement dans les règles de l’art. Dès la création du site internet on l’optimise pour le référencement. On utilise les CP (sans enfoncer trop durement le clou), les annuaires (on se limite à 30 bons) et l’optimisation sur les sites clients. Là aussi pas de page fantôme, du contenu utile et quelques articles de temps en temps. Le filtre pingouin ne nous a pas pénaliser… pour l’instant. Mon sentiment reste quand même que Google a la volonté de pousser les agences à vendre de l’Adwords et non pas du SEO. Car le référencement naturel, si blanc soit-il, vise à tirer partie de notre connaissance de l’algorythme pour placer en tête nos clients. Alors certains s’en offusquent, disant que le SEO est profitable au web, car nous encourageons nos clients dans la voie de la sagesse, en soignant le contenu du site. C’est vrai, mais on ne se limite pas à ça. Le web est concurrentiel et nous ne respectons pas l’arbitrage du moteur quand celui ci place un concurrent devant. Notre objectif est par essence biaisé, on ne laisse pas bosser le moteur (et c’est normal car il n’est pas pour l’instant parfait !). Mais il ne faut pas attendre de Google qu’il soutienne notre hérésie !

Son objectif est de nous pousser à utiliser Adwords (nous proposons d’ailleurs une formation à Google Adwords si vous voulez gérer vous même vos campagnes) pour les services publicitaires qu’on propose aux clients. Pour que d’une part nous laissions tranquille le moteur, et d’autre part car ils encaissent via Adwords plus de 80% du budget affecté par nos clients (si on suit leurs recommandations de facturer entre 10 et 20% de frais de gestion au client sur un budget communication). Alors qu’avec le SEO on demande à Google pour ainsi dire… de se rendre sur son moteur est de taper « peanuts » !