Moteur de recherche, le fonctionnement des algorithmes de google

4 4

Les algorithmes de Google permettent de filtrer les résultats. Cela aide à fournir des informations de haute qualité aux utilisateurs du moteur de recherche Google. Aujourd’hui, on parle beaucoup des algorithmes Pingouin, Panda, Colibri, Pigeon qui ont chacun leur spécificités.

Ce sont des algorithmes complexes que beaucoup de référenceurs ont du mal à comprendre et interpréter à cause de leur évolution perpétuelle. Ils sont imprévisibles et potentiellement dangereux pour un site internet  La meilleure solution pour éviter de se faire pénaliser est donc de comprendre le fonctionnement de ses algorithmes et de respecter les critères et les directives avancées par Google.

 

Selon Google,

definition algorithme google

 

Pour savoir comment bien optimiser son site pour le référencement, il est important de bien comprendre le fonctionnement des algorithmes des moteurs de recherches. Pour cela il faut étudier leur fonctionnement et connaître les critères pour le référencement d’un site.

 

Définitions

Un algorithme, c’est une suite d’instructions, qui une fois exécutée correctement, conduit à un résultat donné.1

 

Google présente ses algorithmes de la manière suivante:

explications algorithme google

Dans cet extrait, l’équipe de Google explique que Google doit faire le tri entre des millions de résultats. En conséquence, l’équipe de Google à mis en place un standard de qualité (une page parfaite). Ce standard de qualité à pour but de maximiser la satisfaction de l’utilisateur. Ce standard doit également respecter les lois de chaque pays (droit à l’oubli, droit à l’image, …). C’est à partir de ce standard et de la politique de Google que vont être mis en places des critères de classements des résultats (Il y en a plus de 200). Ces standards ont pour but de vous aider à trouver une réponse à tout type de recherche, qu’elle soit commerciale (achat) ou informatinnelle (articles, réponse à une question, …). Le tri se fait ensuite grâce aux algorithmes.

 

Les critères de qualité chez Google

Google doit être capable de faire la différence entre une page de qualité et une page de mauvaise qualité pour classer ses résultats. Mais également la différence entre une page de bonne qualité et une page d’un peu moins bonne qualité, ce qui est moins évident. Il existe un certain nombres de critères qui permettent de faire la différence entre ses pages. Les critères de qualité de Google ne sont pas partagés. Pourtant, en 2014 ils ont été publiés sur le web.

 

Search Quality Rating Guidelines

évaluateur de qualité google

 

Les critères de qualité de chez Google ont été divulgués en 2014, sûrement par l’un des employés de l’entreprise. Voici le document complet (en anglais). Cliquez sur l’image pour le télécharger.

Ce document regroupe les consignes destinées aux « évaluateurs de la qualité des recherches« .  Ce sont tous les critères qui vont permettre de donner une « note » globale à un site. Cette note déterminera le positionnement du site et de ses pages dans les moteurs de recherches.

Si vous maîtrisez l’anglais, je vous conseille également de suivre la vidéo ci-dessou qui explique les changements entre les guidelines de 2012 et celles de 2014. La vidéo à été publiée par un formateur Australien en référencement très reconnu. La vidéo apporte des informations que l’on ne retrouve pas en France dans les discussions actuelles. Je conseille donc fortement la visualisation.

 

 

 

 Ce qu’il faut retenir des guidelines de qualité Google

Si vous ne souhaitez pas lire les 160 pages du PDF, lisez au moins mon résumé qui va vous donner les points importants à connaître. Une bonne connaissance des critères de Google vous donnera sûrement des idées pour améliorer votre site internet pour les moteurs de recherches.

 

1.0 Qu’est ce qu’une page de bonne qualité

Une page de bonne qualité apporte de la satisfaction à son lecteur et comporte au moins une des qualités suivantes.

  • Un contenu de haute qualité
  • Le site et l’auteur sont experts ou reconnus comme source d’autorité sur le sujet
  • La page en question a reçu de bons retours et à une bonne réputation

Une page et un site de qualité doivent remplir la majorité des critères suivants.

  • Disposer d’une page « About » ou « contactez nous » avec des informations sur le site (infos de contact, numéro de tel, adresse mail, formulaire de contact)
  • Une bonne expérience utilisateur (responsive, beau design, lecture facile, images, vidéos, …)
  • Un contenu tenu à jour et bien entretenu

 

1.1 Un contenu de haute qualité c’est quoi

Google qualifie le « contenu principal » d’une page comme le facteur le plus important pour le positionnement. On parle de contenu de haute qualité lorsque soit il demande:

  • du temps
  • un effort
  • de l’expertise
  •  du talent

Plus précisément il faut:

  • Eviter à tous prix les fautes d’orthographe
  • Innover: apporter de nouveaux éléments
  • Etre clair et aller à l’essentiel
  • Que chaque action soit simple et intuitive (acheter, naviguer, …)
  • Insérer des vidéos, des images, des slideshows, …

 

contenu de haute qualité
crédit image: http://plumeinteractive.canalblog.com/

 

Pour un sujet large, il vaut mieux écrire un contenu plus long. Pour un sujet précis, un article plus court et technique est satisfaisant.

Par exemple: Si j’écris un article sur L’histoire du marketing: mon article devra être long. Au contraire, si j’écrit sur la longue traîne je peux écrire un article plus court et technique.

 

2.0 Expertise/Autorité/Trust (E-A-T)

L’expertise, l’autorité et le trust sont les trois pilliers pour bien se positionner dans les moteurs de recherches.

Un site qui produit du contenu de qualité ne pourra pas bien ranker si il n’y à pas une certaine expertise derrière. Il faut comprendre par cela que seul un site qui apportera des « informations supplémentaires » sur son domaine d’expertise verra ses rankings justifiés. Un site qui ne fait que réécrire du contenu qui à déjà été consommé (= du contenu qui dit la même chose avec d’autres mots) ne verra pas ses rankings décoller, ce malgrès la création d’un contenu complet et qualitatif.

expertise autorite trust

En bref: Innover et faire de la recherche sont les clefs. Mais attention, il faut être capable de prouver vos affirmations avec des données (= Trust = confiance qu’un utilisateur va attribuer à votre contenu).

 

3.0 La réputation, facteur déterminant

Un site internet ne peut pas être considéré comme de « haute qualité » si sa réputation est négative, ce quelle que soit la qualité du contenu. Au contraire, une page moyenne peut être notée comme étant de haute qualité si elle est bien réputée.

La réputation d’un site est donc un facteur central qui peut faire pencher la balance d’un côté ou de l’autre. La réputation est déterminée à travers les notes données par les utilisateurs à votre site (Reviews), a travers les retours d’articles provenant de sites d’autorité (Wikipedia, journeaux, sites webs reconnus, …).

En plus de l’ensemble des restrictions que l’on connait déjà (via les règle de Google), l’utilisation de « méthodes déceptives » comme par exemple le camouflage de liens de partage vers les réseaux sociaux est très sévèrement réprimandé par Google: votre page est automatiquement qualifiée comme étant de mauvaise qualité. Les redirections vers d’autres sites sont également mal acceptées par Google si effectuées dans un contexte douteux.

 

4.0 Utilité en contexte

Ce critère concerne surtout le titre de vos pages. Lorsque vous choisissez le titre d’une page, faites bien attention à ce que le titre corresponde au contenu.

Pourquoi ?

Tout simplement parce que vos pages seront notées par les algorithmes en fonction de ce qu’elles apportent à l’utilisateur. Par exemple, si votre titre est du style: «  conseils pour se protéger contre le NSEO » faites en sorte que votre article apporte concrètement des conseils pour se protéger contre le NSEO. Sinon, votre page sera mal notée en terme « d’utilité » pour les visiteurs et vous verrez vos positionnements baisser malgré un bon contenu.

 

 5.0 Conclusion des guidelines Google

Pour qu’un site se positionne bien, trois critères prévalent.

Le premier critère est le contenu:

Il faut proposer un contenu principal (MC) de haute qualité. C’est à dire un contenu qui est non seulement complet et technique mais également novateur. Un contenu à beau être de très bonne qualité, si il n’apporte pas un certain nombre d’innovations par rapport à ce qui se retrouve sur la toile alors il ne sera pas considéré comme apportant de la valeur. Par conséquent il ne sera pas dans les 3 premiers résultats pour une requête concurrentielle. Un contenu de haute qualité est également un contenu qui soigne son apparence (un texte bien lisible et aéré, une police minimum de 12px, …) et qui si possible comprend des médias (vidéos, images, …)

N’oubliez pas le contenu secondaire (SC). Le contenu secondaire c’est l’esthétique générale des pages de votre site. Cela comprend  des éléments comme la sidebar, le footer, le header, .. . Un contenu secondaire de mauvaise qualité est un frein pour la bonne notation d’une page. Une page de haute qualité aura un contenu secondaire de qualité (utile pour l’utilisateur, qui ne gêne pas la lecture de l’article)

Le second critère est l’ E-A-T:

C’est l’expertise, l’autorité et le trust d’un site. L’expertise vient de la qualification des personnes qui écrivent sur un sujet donné (un blog d’experts en oeunologie aura une note d’expertise élevée pour un article du genre: « les meilleures combinaisons de vins pour aller avec le poisson« ). L’autorité provient du niveau de respect général que les visiteurs ont pour les informations d’un site, c’est généralement très lié à la popularité et au cadre dans lequel le site à été créé. Par exemple, un site d’une grande entreprise de mode type Quicksilver aura plus de chances de produire régulièrement du contenu d’autorité sur le sujet de la mode qu’un bloggeur qui blogue généralement sur la thématique du vin. Le trust, c’est la confiance que l’on peut avoir en le contenu d’un site. On peu connaître le trust approximatif d’un site en répondant aux questions suivantes. Est ce que le contenu est basé sur des données statistiques réelles ? Est ce qu’il se réfère à des informations provenant de sites d’autorité?

Une manière d’augmenter sa note en E-A-T est de faire en sorte que ses clients laissent des Reviews et commentaires sur des sites comme ASK ou sur votre page google my business. Une autre méthode consiste à faire en sorte que des sites d’autorité parlent de vous (Wikipedia, …). Enfin, il faut produire du contenu basé sur des sources d’autorité ou des données statistiques solides.

Le troisième critère est l’Utilité de votre contenu:

Il faut faire en sorte que votre contenu soit utile pour le visiteur. Cela passe beaucoup par le titre de vos pages et articles. Faites en sorte que votre contenu réponde bien à ce que promet votre titre. Si vous promettez un ebook gratuit dans votre titre, alors offrez cet E-book dans votre contenu. Faites en sorte de satisfaire la recherche de votre visiteur. Pour cela, faite la distinction entre une requête informationnelle (recherche d’infos) ou commerciale (recherche de produit ou service) en passant par des outils comme le plannificateur de mots clefs de Google.

 

 les objectifs de Google pour ses algorithmes

Google effectue un travail de recherche constant sur ses algorithmes. Sur sa page officielle, Google explique qu’ils sont en constante innovation pour permettre à leurs visiteurs d’obtenir des résultats de plus en plus pertinents. Pour mieux comprendre les évolutions, une vidéo qui récapitule l’évolution du moteur de recherche est mise à disposition.

 

 

Google travaille sur un certain nombre d’innovations pour son moteur de recherche. Voici comment elles sont présentées:

innovations google

 Dernièrement il semblerait que Google se concentre beaucoup sur le Knowledge graph, l’indexation sémantique, et l’aspect de qualité et utilité d’une page web. On voit également certains formats tels que la photo, la vidéo et l’infographie devenir source d’un intérêt particulier. Sans parler du mobile qui est la dernière obsession des ingénieurs de chez Google. Optimiser son site pour les mobiles est désormais essentiel.

 

Comment est ce qu’un algorithme est ajouté à Google

 

Voici comment Google explique le lancement d’un nouvel algorithme dans sa documentation officielle.

 

lancement d'un algorithme

 

Voici maintenant la marche à suivre de Google pour évaluer et tester la performance d’un algorithme ou d’une modification d’un algorithme (avec les données de 2011). Cliquez sur l’image pour l’agrandir.

 

tests ingénieurs google

 

[divider]

la fronde contre le spam

Pour les moteurs de recherches, on parle souvent de spamdexing, c’est l’ensemble des méthodes qui permettent de tromper un moteur de recherche pour y être mieux positionné.

Les méthodes de spamdexing font partie du SEO black hat. Il suffit que google détecte un élément considéré comme black hat sur votre site pour que votre note passe à qualité « très faible » sur l’ensemble de votre site avec en supplément éventuel une pénalité. Autant dire que si vous ne maîtrisez pas à la perfection les techniques de black hat, n’espérez pas vous en sortir sans perdre votre nom de domaine un jour ou l’autre.

La stratégie de Google se concentre très fortement sur la lutte contre ce spam. Cela permet de lutter un maximum contre les changements anormaux dans les résultas des moteurs de recherches (SERPs). Google est forcé de lutter contre le spam afin de garder une pertinence maximale dans les SERPs.

Voici ce que Google nous dit sur le spam.

 

Lutte contre le spam

Types de spam

 

actions manuelles

 

message aux webmasters

 

Ce qu’il faut retenir de la politique anti-spam de Google

Google fait de la lutte anti-spam un point central de sa stratégie. Les tricheurs sont chassés à la fois par des algorithmes de plus en plus développés mais également par les « web spam teams« , des équipes formées pour détecter manuellement les sites qui trichent.

Il suffit d’une bavure aux critères de qualité Google pour que l’ensemble de votre site soit considéré comme étant de qualité « très faible« . Pratiquer les techniques Black Hat est donc uniquement rentable pour booster un site destiné à une durée de vie très limitée (évènement, …). Sur le long terme, vos chances de ne pas vous faire attraper par Google sont très minces.

Autre information à retenir: réagissez rapidement lorsque les Google Webmaster Tools indiquent des erreurs pour votre site. Lorsque vous recevez un message sur votre compte Google Webmaster Tools réagissez le plus vite possible. Google investi de plus en plus dans la communication avec les webmasters, et vous averti avant de vous pénaliser. Cela vous laisse un temps de réaction pour corriger les erreurs. Par contre, si vous être trop lent à réagir, il sera peut être déjà trop tard.

Les sites pénalisés ont la possibilité de faire une demande de réexamen à Google pour qu’éventuellement la pénalité manuelle soit levée.

 

demande de réexamen google

 

 Les règles de Google

 

Voici dans les grandes lignes, les règles de Google. Vous pourrez retrouver des informations plus complètes à ce sujet en allant directement sur les règles relatives à la supression de contenu. Connaître ces règles permet de comprendre la direction et le but que prennent les algorithmes de Google.

 

règles de Google

règles webmasters

sécurité internet

sécurité moteurs de recherches

 

Les algorithmes de Google et le référencement

Maintenant que nous avons étudié en détail la politique de Google et les stratégies qui se cachent derrière les algorithmes, je vais maintenant vous expliquer le but de chacun de ces algorithmes.  L’idée va être de comprendre l’effet de chaque algorithme sur les résultats des moteurs de recherches pour pouvoir optimiser son référencement et éviter de se faire pénaliser. Cela va également vous permettre de comprendre comment bien ranker dans les SERPs en cohérence avec les derniers changements algorithmiques. Si vous souhaitez avoir l’historique des mises à jour des algorithmes, Moz propose un récapitulatif mis à jour régulièrement.


 

Google Panda

 

[youtube id= »vTNFf_tUjTA » width= »1000″ height= »500″ position= »mid »]

 

Définition – Selon Search Engine Land, Google Panda est un filtre de recherche introduit en février 2011 qui permet d’éviter que des sites avec un contenu pauvre prennent les premières positions dans les résultats de recherches. Panda est mis à jour de temps en temps. Quand c’est le cas, des sites qui étaient précédemment pénalisés peuvent sortir de pénalité si les bons changements ont été effectués. Panda peut également pénaliser des sites qui avaient échappés aux précédentes mises à jour.

Cible – Les sites du type: fermes de contenu, scrapeurs, copieurs, comparateurs de prix, agrégateurs, codes de réductions.

Détails supplémentaires – . il vise

  • les sites qui manquent de contenu
  • qui ont du contenu généré par une machine
  • qui ont du contenu dupliqué

Panda traque le contenu dupliqué, les copier-coller et les textes spinnés, mais il semblerait qu’on puisse facilement trouver une parade à cela (voir le blog de GDM-Pixel). Panda jauge la qualité du contenu d’un site en se basant également sur l’autorité du site. Google à annoncé qu’il n’avertirait plus officiellement lors de la mise à jour de Panda.

 


 

Google Penguin

 

[youtube id= »XhU7Zrlsw2A » width= »1000″ height= »500″ position= »mid »]

 

Définition – Google à lancé l’algorithme Penguin pour la première fois en avril 2012 pour détecter plus facilement les sites jugés comme étant spammeurs des résultats du moteur de recherche. Sont visés en particulier les sites pratiquant l’achat de liens  et l’obtention de liens à travers des réseaux créés spécialement pour améliorer le positionnement d’un site. Lors d’une mise à jour de l’algorithme, les sites pénalisés qui ont pris les mesures nécessaires pour se débarrasser des liens malicieux (via l’outil de désaveu) peuvent sortir de pénalité. Penguin peut également pénaliser les sites qui avaient échappés aux précédentes mises à jour.

Cible – Tout site qui essaie de se positionner grâce au référencement non naturel. Les sites pénalisés sont souvent ceux qui obtiennent des liens depuis des sites douteux (Poker, site X, …) ou des sites qui existent uniquement pour améliorer le positionnement dans les moteurs de recherches (annuaires de mauvaise qualité, fermes de liens, communiqués de presses, générateurs automatiques de bcklinks).

Détails supplémentaires – lutte contre le black hat SEO et linkbuilding.

 


 

 

Hummingbird

 

[youtube id= »76z9B7NChLg » width= »1000″ height= »500″ position= »mid »]

 

Définition – Hummingbird est un algorithme officiellement présenté le 26 septembre 2013 qui change la manière dont Google interprète les contenus des pages web. Le but de l’algorithme est de mieux comprendre l’intention des visiteurs pour chaque requête ( l’utilisateur recherche t’il des informations ou à acheter) afin de proposer des résultats mieux adaptés à chaque requête.

Cible – contrairement aux filtres du type Panda et Pingouin ( qui n’affectent généralement pas plus de 4% des requêtes), Hummingbird est un algorithme à part entière (touche 90% des résultats de recherche) et n’a pas pour but de pénaliser certains types de sites. Hummingbird marque la rennaissance de la longue traine pour le SEO et se concentre sur les requêtes conversationnelles (il est en forte corrélation avec le Knowledge graph de Google).

Détails supplémentaires – Optimiser son site pour Hummingbird, c’est ce concentrer sur des titres qui répondent aux questions des visiteurs. C’est également travailler sur la longue traîne plutôt que sur des « mots clefs populaires ». C’est également optimiser son site pour le knowledge graph en possédant des pages du type google my business, Yelp, … . L’utilisation des métadonnées du type schema est également une bonne pratique pour s’assurer une bonne interprétation de son contenu par hummingbird.

 


 

 

Pigeon

 

[youtube id= »279RWP1Dhps » width= »1000″ height= »500″ position= »mid »]

 

Définition – Lancé le 24 juillet 2014 dans les pays anglophones, Pigeon est un algorithme dont le but est de proposer des requêtes plus pertinentes pour les recherches locales suivant des critères de référencement plus « traditionnels ». Google à déclaré que cet algorithme leur permettait de fournir des paramètres plus précis pour la localisation et le calcul de distances.

Cible – tout les sites géolocalisés. Pigeon a un impact sur Google maps mais également sur les résultats de recherches. Les sites qui en profitent le plus sont les annuaires géolocalisés du type Yelp, Trip Advisor, … . Amélioration de la corrélation et des signaux pour les sites qui pratiquent le référencement local.

Détails supplémentaires – Pour optimiser son site pour pigeon, pensez à ajouter les détails de votre business sur chaque page de votre site (footer ? header ?) incluez votre numéro de téléphone, l’adresse de vos locaux d’entreprises et une adresse mail ou un formulaire de contact. Pensez également à ajouter des métadonnéesd e géolocalisation et à spécifier dans Google Webmaster Tools votre géolocalisation et celles des personnes que vous souhaitez toucher. Inscrivez votre site dans des annauires géolocalisés du type Yelp, ou sur des pages comme Google My Business.

 


 

 

Conclusion

 Vous connaissez maintenant en détail les critères de qualité de Google grâce au leak des « Search Quality Rating Guidelines » par un employé de Google. Vous en avez tiré des informations cruciales et appris de nouvelles techniques pour optimiser votre site et booster vos rankings. Vous savez désormais ce que Google attend de vous et votre site avec précision.

Vous comprenez la politique de Google et le fonctionnement et objectif de ses algorithmes. Ce qui vous permettra de ne pas faire d’erreurs qui pourraient pénaliser votre site.

Vous comprenez l’utilité de chaque algorithme en ce qui concerne le référencement et les rankings dans les SERPs. Vous connaissez désormais les grandes directions à prendre pour optimiser votre site pour chaque algorithme.

Comme vulgairement expliqué par certains professionnels du référencement anglophone, le contenu est important mais il ne faut pas oublier que le contenu secondaire (sidebar,header, footer, …) fait également partie du contenu pour lequel le site est positionné. Pour avoir un bon positionnement, un site doit avoir un bon contenu global (MC et SC), une bonne réputation (E-A-T) et doit répondre aux besoin des internautes (besoin d’information ou d’achat) via le titre et un contenu correspondant (CF: Hummingbird et résumé des guidelines de Google).

Si vous connaissez d’autres méthodes pour répondre aux attentes des algorithmes de Google, laissez un commentaire en bas de l’article.

[yasr_visitor_votes size= »medium »]

 

  1. Définition proposée par: http://pise.info/

Si vous avez aimé
cet article, pensez à liker

Suivez nous sur Twitter

Ecrit parAmaury Baot

Je suis consultant référencement / inbound marketing en agence web. Ici, j'aide les pros du web et chefs d'entreprises à rester au top des tendances du webmarketing.

6 Commentaires

Leave a Reply
  1. Avec Google, il faut toujours jouer franc jeu. Il se veut pertinent, on doit l’être aussi. Il n’aime pas être trompé. Google est un ami, si on se comporte bien avec lui, il nous rend l’appareil. Un dernier point, avec l’expérience, j’ai remarqué qu’avoir des mots clés dans le nom de domaine aidait énormément. Je ne sais pas si cela fait cliquer l’internaute davantage mais cette stratégie n’est pas mauvaise à adopter sans suroptimisation bien sûr.

  2. Excellent article plutôt détaillé (même si on pourra écrire des livres sur le sujet)
    ce qui est réconfortant c’est que les moyens de qualifications de site web sont assez juste (à mon sens), car Google ne demande en Gros que du contenu de grande qualité une expertise du domaine (réputation) un travail au niveau de l’expérience utilisateur et surtout d’éviter les spams..
    Rien d’exceptionnel sauf que cela ne se construit pas du jour au lendemain (logique)
    Petit conseil (il serait plus intéressant dans le future de scinder l’article en plusieurs partie comme le font JDN par exemple) car là on est à plus de 20.000 signes !

  3. Bonjour Ziad,

    Merci pour les encouragements, je ferais en sorte de scinder l’article la prochaine fois.
    d’ailleurs, si quelqu’un connais un plugin wordpress clean pour faire cela, je suis prenneur .

  4. Sympa ton étude. Y a du taf derrière.
    Le seul point noir qui demeure reste cette foutue notion de qualité. Je reste en désaccord avec la comm de Google car un robot n’est pas capable de juger la qualité (par rapport à qui, par rapport à quoi ?).
    Plutôt, je parle de contenu intéressant. Cela permet d’évacuer le côté wikipediesque de la chose.
    En effet, on peut tout à fait faire un contenu qui claque sans passer par les tonnes de recherches et de mots. Cela n’enlève pas le mérite d’un article poussé comme le tien, mais cela permet de relacher la pression sur ceux qui n’ont pas forcément l’envie ou les moyens de publier des articles encyclopédiques ou journalistiques.

  5. Bonjour Laurent,

    Je suis d’accord avec toi: d’un point de vue éthique, Google ne devrait pas pouvoir contrôler ce qui est considéré comme contenu de qualité ou pas. Par contre (selon moi) les robots de Google jugent de la qualité d’une page en fonction des valeurs véhiculées par la politique de Google.

    La notion de contenu intéressant me dérange un peu: car cela favoriserait beaucoup le contenu type Buzzfeed que beaucoup trouvent « intéressant » ou au moins « divertissant » et on verrait peut être disparaître le contenu type wikipedia qui n’est pas forcément très intéressant à lire mais riche en faits. Et je pense que Google respecte bien l’idée d’équilibre entre le contenu de divertissement et le contenu factuel.

    De plus, je pense que l’un des buts de Google (hormis faire du profit) est de donner l’accès à un maximum de données détaillées et poussées. Mais détaillé et poussé ne veut pas forcement dire pavé de 3000 mots. ça peut être 200 mots sur un sujet bien précis mais rigoureusement écrit. Mais dans le fond je suis d’accord, Google ne devrait pas avoir la possibilité de nous dire ce qui est de qualité ou pas.

    Ps: Si jamais tu souhaites venir écrire un article sur supref.fr pour présenter le journalducm (ou tout autre article) tu est le bienvenu.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *