Mercredi 25 Avril 2012, tous les SEO ont tremblé en voyant se déployer la dernière mise à jour algorithmique de Google : le fameux filtre anti-spamdexing de Google nommé Penguin.
Pour mémoire, quelques jours avant avait lieu la mise à jour de la surcouche Panda.
Voici une petite synthèse et quelques conseils pour passer la barre sans encombres.
Un filtre supplémentaire sur Google
En quoi consiste cette mise à jour visant à favoriser les sites dits « de qualité » ?
Pour faire court, Google aurait ajouté un filtre à son moteur de classement afin de pénaliser les sites ayant utilisé des techniques de référencement soit-disant « black hat » :
- Link spam
- Sur-optimisation
- Vieilles techniques black hat : keyword stuffing, texte caché (CSS, JavaScript)
- Bombing sur les liens
- etc., etc., etc.
L’idée derrière cette couche algorithmique est donc de détecter les sites dont la notoriété / confiance / autorité pourrait être douteuse ou falsifiée et de punir leurs infractions aux Consignes aux Webmasters de Google.
Il s’agit bien là de consignes…
De fait, comme pour les enfants, si on ne respecte pas les consignes, on se fait punir. Pire ! Si on triche, alors on se fait exclure !
Quels signaux peuvent déclencher l’application du filtre ?
Je vous présente ici le résumé de ma réflexion et de mes recherches sur le sujet. Je vous invite à échanger par vos commentaires en fin d’article.
Ancres de liens
Nous le savons depuis des années, et nous le pratiquons depuis ce temps, les ancres de liens sont un véritable signal. Celui-ci peut être positif, comme négatif. Il est donc important de soigner les expressions que l’on va choisir pour positionner les pages de nos sites.
On pourra distinguer les opérations de netlinking fines et riches des techniques de maillages moins élaborées (voire presque « académique »).
En effet, les limites des actions acceptables fixées par le moteur sont de plus en plus restreintes. La marge de manoeuvre n’existe presque plus pour certains.
Diversifier ses ancres de liens
Ainsi, la divertisté des ancres de liens est de mise, encore bien plus qu’avant. L’objectif est se constituer un univers sémantique riche et proche des utilisateurs, et dont l’une des qualités est sa richesse. Plus on a de choix, meilleurs sont les résultats.
Analyse accrue des contextes des liens
Après avoir procédé à la recherche de mots-clefs, on peut commencer le travail de production de contenu dédié au linking. Qu’est-ce que cela signifie ? Que l’on va produire des articles de qualité (du « great content » 🙂 ) qui servira de contexte au lien. L’importance des ancres sera donc réduite, mais leur variété / richesse, la complémentarité des expressions sera un critère encore plus présent.
D’autre part, la validité de l’auteur proposant le lien (lorsque c’est possible) est également un indicateur de plus en plus fort. Un auteur compétent sur une thématique qui publie un texte accorde une part de « confiance » à ce contenu, et par extension aux pages qui sont liées depuis celui-ci.
La position du lien sur le support est également un critère. On le sait, Google et les autres moteurs de recherche peuvent identifier des blocs en reconstituant un DOM approximatif mettant en valeur certaines zones : zone de contenu, en-tête, menu, pied de page, colonne latérale, etc.
Avoir des liens en bas de chaque page d’un site n’est pas très naturel au sens où ce lien n’est pas mis en valeur pour les utilisateurs (bien que la plupart des échanges soient légitimes), mais c’est surtout pour Google un « système de lien visant à manipuler le PageRank », donc un signal négatif.
Analyse des similitudes de structure
Le problème de certains référenceurs qui utilisent le content spinning est qu’ils ne travaillent pas suffisamment leur contenu. C’est à dire qu’ils n’ajoutent pas assez de variations dans les structures de phrases et/ou dans les synonymes utilisés.
De même, les liens sont généralement à la même place à quelques mots près : premier ou second paragraphe, avant dernier paragraphe.
Si l’on numérotait les différentes phrases, il serait donc facile de compter, et lorsque l’on regarde la position des liens dans le contenu, ils sont bizarrement présents aux mêmes numéros de phrases sur tous les sites qui ont été utilisés pour faire le netlinking.
Cela peut paraitre évident, mais il semble que de nombreux confrères ne le sachent pas…
Analyse de la provenance des liens
Lorsque l’on aborde la provenance des liens, on regarde surtout le contexte linguistique et géographique. Par exemple, est-il normal de constater qu’un site proposant ses services ou ses produits à une clientèle franco-française ait majoritairement des liens issus de blogs rédigés en anglais, hébergés aux Etats-Unis ? La logique indique bien que non.
De même, lorsque l’on regarde les ancres de liens utilisées, on peut rapidement se rendre compte qu’elles visent des mots-clefs français alors que le contenu est en anglais… ? N’y a-t-il pas un problème ? Si j’étais un internaute, c’est la question que je me poserais…
Courbe d’acquisition de liens
Le link graph est une notion plus complexe qu’on ne le pense généralement. Dans ce paragraphe, j’insisterai surtout sur la courbe d’acquisition. On peut déterminer des tendances assez facilement en regardant plusieurs critères majeurs sur une période donnée :
- le nombre de liens acquis
- le rythme d’acquisition de ces liens : existent-il des pics visibles, ou des creux notoires ?
- le nombre de domaines
- le ratio nombre de domaines / nombre de liens acquis
- la variété des supports
Avec de telles données, on peut rapidement mettre la puce à l’oreille des équipes de lutte contre le spamdexing. Se pose alors la question d’un éventuel coup de buzz… Connaissez-vous de nombreux sites qui feront un lien toutes pages vers le vôtre simplement parce qu’ils l’aiment ? Pour ma part, c’est quelque chose qu’on voyait davantage il y a 5-7 ans, mais plus maintenant.
Aujourd’hui, on reçoit dans le meilleur des cas un article avec un lien dont l’ancre est le nom de domaine, et sinon, ce sont sur les sites communautaires que sont partagés les URL menant à votre site.
Le buzz est tout à fait identifiable et non préjudiciable pour un algorithme tel que celui de Google, mais les échanges de liens « à l’ancienne » sont de véritables signaux négatifs.
Préférez des liens dans des pages partenaires thématiques, avec du contenu et une structure sémantique plutôt que du footer dévalué. Les risques sont moindres, et les effets bien meilleurs pour vos positions et la réputation de votre site.
Quelques recommandations basiques
Pour dompter le Penguin (ne riez pas, cela reste un animal sauvage ! ), voici quelques recommandations simples et sûres que vous pourrez appliquer dans vos stratégies de netlinking.
Rappelez-vous que la clef d’un succès pérenne est de faire preuve d’une véritable créativité dans votre stratégie de linking.
Social link graph
Les différents partages sur les réseaux sociaux et les sites de social bookmarking sont un signal positif. Ces partages agissent véritablement comme des votes, des validations indiquant que le contenu est intéressant. Ces sont des recommandations !
Non le SEO n’est pas mort, mais les limites avec le SMO s’affinent de plus en plus. On doit séduire les internautes, comme on séduirait un chaland qui passe devant une vitrine.
Les différents leviers à actionner restent à définir selon votre cible et vos moyens (humains, financiers, techniques).
Un site recevant beaucoup de liens et bénéficiant d’une large couverture dans les médias sociaux ne sera pas en danger.
Construire une marque autour de votre site
Lorsque l’on promeut un site internet, on doit avant tout faire en sorte que les utilisateurs reconnaissent le nom de domaine. C’est la base de la construction de la marque au sens « search ».
Faire légitimer son URL avant ses mots-clefs semble être une bonne option à observer, non ?
Ainsi, utiliser le domaine, le sous-domaine, l’URL complète du site ou d’une de ses pages profondes dans les contenus des pages d’autres sites (et notamment les CP) permet d’envoyer ce qu’on appelle des brand signals (signaux de marques) qui accroissent la notoriété de votre site en tant que marque. Après tout, un visiteur qui trouvera un article sur votre site pourra tout à fait se rappeler le nom de domaine et ainsi revenir directement.
N’oublions pas que le SEO est un moyen de promotion, alors promeuvez votre site en tant que tel !
Variation des ancres de liens
On ne le répètera jamais assez (cela fait quelques années maintenant) : il faut varier ses ancres de liens. Cela génère du trafic de longue traine, renforce la clusterisation de vos contenus sur ses thématiques principales et surtout vous apporte un profil de liens diversifié.
Il ne serait pas « naturel » d’avoir uniquement des liens optimisés sur les requêtes choisies. Le contexte de votre page hôte suffira à préciser le sujet aborder et rendre peu à peu légitime votre site sur vos expressions-clefs.
Comment répartir ses ancres ?
La réponse ne peut pas être 100% claire. Cela dépend en effet de l’historique du site, des précédentes campagnes de link building, des supports de liens (social, CP, forum, commentaires, annuaires, etc.). Il faut ici préparer une rétrospective de ce qui constitue le link graph actuel du site avant de lancer une nouvelle campagne.
De fait, une fois votre analyse terminée, vous savez quelle proportion d’ancres optimisées votre site détient, et vers quelles pages pointes ces liens. Vous pouvez ainsi démarrer une campagne proprement en respectant certaines proportions mais surtout en jouant sur des hybrides.
Ancres de liens hybrides
J’entends par hybrides, des ancres de liens de longueur différentes (nombre de mots) incluant des mots-clefs ET le nom du site, ou des mots-clefs ET le nom de domaine, avec un placement différent au sein des ancres.
Si votre site doit se positionner sur l’expression « blue widgets », les ancres de liens pourront donc être de la forme « des blue widgets comme chez monsite.com » ou « monsite.com fabrique des blue widgets », etc.
Voilà un bon début pour avancer. Je n’évoque pas tous les autres points qui pourraient être relatifs à ces mises à jour (et notamment les mises à jour un peu « fantômes » comme Orca), il en existe encore beaucoup qu’il faut tester et affiner, mais au moins cet article permet de fixer certaines bases d’étude et quelques bonnes pratiques.
Vous avez des retours, des questions, des théories ? N’hésitez pas à participer via les commentaires.
15 commentaires
je suis assez d’accord, mais comme avec tous les filtres, ils vont durcir les règles (contexte de machine learning) au fur et à mesure…
Mieux vaut pencher pour quelques stratégies long terme (et surtout éviter de récupérer des sites pénalisés quand le client change de prestataire 😉 )
Le « branding numérique » va devenir incontournable : notoriété, marketing, « caution humaine » et actions des internautes/mobinautes tant au niveau du search que du social…
Hello, je suis entièrement d’accord avec toi, mais je te repose la même question que sur twitter.
Même en variant les ancres et en noyant les KW avec d’autres mots parasites (marque ou autres)ne penses tu pas que google peut ou pourra détecter facilement le KW visé?
Google peut facilement mettre en place un filtre repérant que mon kw est présent dans 70% ancres
Je pense qu’il faut utiliser également des ancres qui ne contiennent pas le KW mais des synonymes, des mots thématiquement et sémantiquement proches…
Je pense que s’ils font ça, alors ils devront s’appuyer sur d’autres critères que les liens pour juger de la pertinence et de la popularité d’une page. Donc pas de souci.
Quand je dis qu’il faut faire varier ses ancres, c’est vraiment dans les grandes largeurs, les ancres hybrides doivent en effet reprendre aussi des expressions plus éloignées (tout comme les autres ancres d’ailleurs).
Le maître-mot : faible reproductibilité des ancres.
« ayant utilisé des techniques de référencement soit-disant « black hat » »
Je pense que les « BH » sont ceux qui ont été les moins touchés… Après tout le monde est assez d’accord sur le fait que les professionnels du référencement vont devoir revoir leurs méthodes de travail pour ne pas subir les modifications incessantes de Big G. Ce qui fera la différence c’est de ne pas aller dans le même sens que les autres !
Bon résumé, mais la variation d’ancre est déjà utilisé depuis des années. C’est juste les nouveaux référenceurs qui on abusés d’ancres archi optimisées.
Effectivement la notion de stratégie de marque va devoir être au cœur des actions SEO (un peu) et SMO (beaucoup), sans compter les euros dépensés/investis dans le SEA (le plus possible).
Cet article est une bonne base de travail !
Bonjour,
Très très bien ce billet ! Je l’évoque régulièrement mais je pense qu’il falloir travailler énormément sur la notoriété des domaines pour ne pas subir des désagréments lors des passages des futurs filtres Google.
amicalement
A mon avis il y a aussi une part de délation de certains webmasters face à des techniques utilisées par des concurrents 🙂
Des petits signaux envoyés à GG via les réseaux sociaux en quelques sortes…
Bonjourj’aime beaucoup ton article que je trouve clair et concis. Je le partage donc sur twitter et facebook. Bonne journée !
Merci pour cet article intéressant!
j’aime beaucoup les techniques Référencement penguin update panda.
c’est un excellent article .
merci pour le partage .
Hello Mathieu, merci pour ton article, c’était très sympa et surtout instructif. Comment encore beaucoup de SEO novice ont du mal à faire face à ces deux bêtes de Google, je pense que c’est un post très utile pour ces derniers.
Excellent article ! Ça me permet d’en savoir un peu plus sur les techniques d’utilisation de ces filtres. Un grand merci pour ce partage.
Excellent article ! Ça me permet d’en savoir un peu plus sur les techniques d’utilisation de ces filtres. Un grand merci pour ce partage.