Notez cet article

Pourquoi s’intéresser aux Quality Rater Guidelines ?

Les évaluateurs de qualité n’ont pas d’influence directe sur les classements des pages, mais leurs évaluations aident Google à mesurer l’efficacité des mises à jour de ses algorithmes. Ces modifications peuvent être le fruit d’ingénieurs ajustant le code ou de systèmes d’apprentissage automatique qui améliorent la pertinence des résultats.

Les QRG définissent les critères que Google souhaite voir récompensés par ses systèmes de classement. Plus un site respecte ces critères, plus il a de chances de bien se positionner. Lorsqu’un nouvel élément est ajouté aux consignes, cela signifie généralement que Google cherche à entraîner ses algorithmes à reconnaître et valoriser (ou pénaliser) ce facteur.

Modifications majeures des QRG en janvier 2025

Amélioration de l’accessibilité du contenu principal

Google met l’accent sur la facilité d’accès au contenu principal d’une page. L’utilisateur doit rapidement trouver l’information qu’il recherche, sans être submergé par du contenu secondaire ou des distractions.

Cette mise à jour s’aligne avec la documentation de Google sur l’expérience des pages. Certains modèles d’IA, comme Gemini dans AI Studio, peuvent être utilisés pour identifier et différencier le contenu principal du contenu secondaire.

Impact sur les sites de recettes

Les sites de recettes sont particulièrement concernés par cette mise à jour. Google recommande que la recette soit facilement accessible, ce qui peut poser problème aux blogueurs culinaires qui dépendent des scrolls pour générer des revenus publicitaires.

Un expert du domaine, Casey Markee, a observé dans ses tests que lorsqu’une fiche recette est placée en haut de la page, les revenus publicitaires chutent de 78%. Cependant, une page bien organisée, avec un bouton “Aller à la recette” visible, pourrait toujours bien fonctionner malgré du contenu additionnel.

Lutte contre l’abus de contenu à grande échelle

Un nouveau chapitre a été ajouté sur l’abus de contenu à grande échelle, un sujet particulièrement pertinent pour les sites utilisant l’IA pour générer de grandes quantités de contenu.

Un changement notable est l’augmentation du mot “paraphrasé”, qui est passé de 3 occurrences dans la version précédente des QRG à 25 occurrences dans cette version. Cela montre que Google accorde une importance croissante à la détection de contenu reformulé sans valeur ajoutée.

L’époque où il suffisait de reformuler des articles existants pour se classer est révolue. Cette mise à jour s’aligne avec la documentation de Google sur la création de contenu utile. Google cherche à éviter les articles génériques répétant ce qui a déjà été dit ailleurs.

Contenu généré par l’IA : toléré mais sous conditions

Google ne s’oppose pas à l’utilisation de l’intelligence artificielle pour créer du contenu, mais celui-ci doit être utile et pertinent pour les utilisateurs.

Des exemples fournis dans les QRG illustrent les types de contenus de mauvaise qualité générés par l’IA :

  • Un article sur les poules publié sur un site dédié aux soins pour seniors.
  • Un contenu structuré sous forme de questions-réponses, souvent utilisé par les outils d’IA pour produire du contenu générique et sans effort.

Bien que la structure “question-réponse” ne soit pas intrinsèquement problématique, Google semble prendre en compte le fait que ce format est souvent utilisé pour générer du contenu peu original avec des outils d’IA.

De nombreux sites ayant subi des pénalités avec la mise à jour du système de contenu utile de Google utilisaient cette méthode en couvrant un maximum de “People Also Ask” (PAA) dans leurs articles.

Google semble désormais privilégier un contenu qui répond non seulement à l’intention principale de l’utilisateur, mais aussi aux micro-intentions associées, tout en restant authentique et engageant pour les lecteurs humains.

Utilisation de domaines expirés pour manipuler le classement

L’achat de domaines expirés pour améliorer le référencement ne conduit pas automatiquement à une pénalisation. Cependant, ce qui importe est l’intention derrière cette pratique.

Les QRG donnent des exemples extrêmes, comme un site de casino utilisant un ancien domaine d’école élémentaire.

Dans certains cas, des entreprises achètent des sites concurrents et redirigent leur trafic vers leur propre site. Bien que cela soit souvent acceptable, il est recommandé de supprimer ces redirections si un site subit une chute de trafic inexpliquée, car Google pourrait considérer cette pratique comme du spam.

Abus de réputation de site

Une nouvelle section sur l’abus de réputation de site a été ajoutée. Cette pratique consiste à publier du contenu tiers sur un site bénéficiant déjà d’une bonne réputation afin d’améliorer artificiellement le classement de ce contenu.

Google considère cette méthode comme une technique de spam.

En 2024, Google a déjà pris des mesures manuelles contre de nombreux sites pratiquant cette stratégie. Par exemple, plusieurs sites d’actualités ont vu leurs sous-domaines dédiés aux bons de réduction sévèrement pénalisés, car ces sous-domaines étaient en réalité gérés par des tiers cherchant à exploiter la notoriété du site principal.

À ce jour (janvier 2025), Google n’a pas encore appliqué cette politique de manière algorithmique. Cependant, Danny Sullivan, le Search Liaison de Google, a affirmé que cela finirait par arriver. Le fait que les évaluateurs de qualité reçoivent désormais des instructions spécifiques pour détecter cette pratique laisse penser qu’une mise en application algorithmique est imminente.

Google a publié une documentation officielle sur l’abus de réputation de site, ainsi que des directives précises pour les évaluateurs.

Chute du trafic organique du blog HubSpot : analyse et enseignements SEO

L’évolution du trafic organique de HubSpot

L’analyse des données révèle une diminution progressive du trafic, en lien avec plusieurs mises à jour de Google :

  • Août 2023 : Première baisse notable.
  • Novembre 2023 : Légère reprise.
  • Mars 2024 : Nouvelle diminution.
  • Fin 2024 : Stabilisation à un niveau inférieur.

Cette tendance suggère un changement durable dans la manière dont Google classe les contenus.

Redistribution du trafic vers d’autres acteurs

La perte de visibilité du blog HubSpot a profité à d’autres sites :

  • Microsoft : Sa part de clics organiques est passée de 4% à 7%, notamment sur des requêtes liées à Excel (vlookup, xlookup), où ses pages de support technique sont jugées plus pertinentes que les articles du blog HubSpot.
  • Adobe et Reddit : Leur part de marché est passée de 0,35% à 3%, illustrant une redistribution plus large du trafic organique.

Répartition du trafic avant et après la baisse

En janvier 2024, la répartition du trafic organique était la suivante :

  • Blog HubSpot : 77% du trafic total (3,94 millions de sessions mensuelles).
  • Domaine principal : 16% du trafic (839 000 visites).

En décembre 2024, la situation a évolué :

  • Blog HubSpot : 42% du trafic total (1,1 million de visites).
  • Domaine principal : Stable à 30% du trafic (819 000 visites).

Cette évolution montre un rééquilibrage du trafic entre le blog et le site principal.

Les contenus les plus impactés

Les pages ayant perdu en visibilité sont principalement des articles traitant de sujets grand public, éloignés du cœur de métier de HubSpot :

  • Articles sur des citations célèbres.
  • Guides sur l’utilisation des émojis.
  • Conseils pour les entretiens d’embauche.

En revanche, les contenus directement liés à l’expertise de HubSpot, comme les guides d’analyse d’emails marketing ou les ressources sur l’optimisation des pages d’atterrissage, conservent ou améliorent leurs positions.

La stratégie d’adaptation de HubSpot

Face à cette baisse de trafic, HubSpot a entrepris des actions correctives :

  • Suppression temporaire des articles les moins pertinents.
  • Redirection des contenus vers des pages plus alignées avec leur expertise métier.

Une stratégie de redirection temporaire (302) a été mise en place pour certains articles jugés non stratégiques. Par exemple :

  • Un guide sur l’emoji de haussement d’épaules (¯\\_(ツ)_/¯) a été redirigé vers un guide sur les audits de contenu.
  • Un article sur les citations célèbres a également été redirigé vers une ressource plus pertinente.

Les dernières mises à jour HTML de ces pages, datant du 23 janvier 2024, montrent la rapidité de cette réorganisation.

Impact global sur les performances du site

Malgré la baisse du trafic organique total de 14,6 millions à 11,2 millions de visites mensuelles entre janvier et décembre 2024, les indicateurs clés de performance (KPI) restent solides :

  • Le site principal conserve ses positions sur les requêtes commerciales stratégiques, essentielles pour la génération de leads et les conversions.
  • Le trafic direct reste la principale source de visites :
    • Janvier 2024 : 9,5 millions de visites directes.
    • Décembre 2024 : 7,7 millions de visites directes.
  • Le trafic organique a diminué de 4,22 millions à 2,56 millions de visites sur la même période.

Cette répartition indique que la notoriété de marque de HubSpot reste forte, limitant l’impact négatif des pertes de trafic organique.

Ce que cette évolution révèle sur le SEO en 2024

L’expérience de HubSpot illustre plusieurs évolutions majeures du référencement naturel :

  • Google valorise davantage l’expertise réelle et l’alignement thématique des contenus avec le domaine d’activité du site.
  • La qualité prime sur le volume de trafic : un site ne peut plus se reposer uniquement sur des contenus à fort potentiel de recherche mais peu stratégiques.
  • Les métriques SEO doivent évoluer :
    • Moins d’importance accordée au simple volume de trafic.
    • Davantage d’attention sur les taux de conversion et la qualité des interactions.

Leçons à tirer pour une stratégie SEO efficace

L’expérience de HubSpot met en avant plusieurs bonnes pratiques pour adapter sa stratégie SEO en 2024 :

  • Se recentrer sur son domaine d’expertise : privilégier les contenus qui renforcent la crédibilité et l’autorité du site dans son secteur.
  • Évaluer régulièrement la pertinence des contenus existants : identifier les articles qui n’apportent pas de valeur stratégique et les retravailler ou les rediriger.
  • Optimiser la cohérence éditoriale : assurer une continuité entre les sujets abordés et les objectifs commerciaux de l’entreprise.
  • Surveiller les indicateurs clés au-delà du trafic : analyser les taux de conversion, le temps passé sur les pages et l’engagement des visiteurs.

Mauvaise utilisation des balises hreflang

La balise hreflang permet d’indiquer aux moteurs de recherche quelles versions linguistiques ou géographiques d’une page afficher. Une mauvaise configuration peut entraîner une mauvaise indexation ou une confusion entre les différentes versions d’un site.

Erreurs fréquentes

  • Omission de la balise autoréférencée (hreflang=”x-default”).
  • Mauvaise syntaxe (ex. utilisation de “en-us” au lieu de “en-US”).
  • Absence de réciprocité : chaque page doit référencer ses alternatives et vice versa.

Exemple

Un site e-commerce vend des portefeuilles aux États-Unis et au Royaume-Uni. Bien que les deux versions soient en anglais, les prix doivent être affichés en dollars pour les États-Unis et en livres sterling pour le Royaume-Uni. Sans hreflang, Google pourrait confondre ces pages et les considérer comme du contenu dupliqué, ou afficher la mauvaise version aux utilisateurs.

Solution

  • Vérifier que chaque page inclut les bonnes balises hreflang et qu’elles sont bien réciproques.
  • Utiliser un outil de vérification des balises hreflang pour s’assurer de leur bonne configuration.

Utiliser la mauvaise structure d’URL

Trois structures sont possibles pour un site international :

  • ccTLDs (example.fr, example.de) : Idéal pour un ciblage géographique précis mais demande plus de ressources pour la gestion.
  • Sous-domaines (fr.example.com, de.example.com) : Facile à déployer, mais chaque sous-domaine doit construire sa propre autorité.
  • Sous-répertoires (example.com/fr/, example.com/de/) : Facile à gérer et à maintenir, mais moins clair pour le ciblage géographique.

Erreur courante

Conserver un domaine générique (.com) sans adapter la structure aux pays ciblés.

Exemple

Une entreprise qui souhaite cibler plusieurs langues sans détailler par pays peut opter pour un sous-domaine (ex. it.monsite.com pour une version italienne) ou un sous-répertoire (ex. monsite.com/es pour une version espagnole).

Solution

  • Adopter la structure d’URL la plus adaptée aux objectifs et aux ressources du site.

Géolocalisation forcée et redirections automatiques

Rediriger automatiquement les utilisateurs en fonction de leur adresse IP empêche Googlebot d’accéder à certaines versions linguistiques d’un site.

Exemple

Un utilisateur francophone au Canada accède à example.com et est redirigé automatiquement vers example.ca, alors qu’il préfère naviguer sur example.fr.

Solution

  • Laisser l’utilisateur choisir la version du site qu’il souhaite consulter en affichant un sélecteur de langue bien visible.

Traduction automatique de mauvaise qualité

Une traduction automatique mal réalisée nuit à la compréhension du contenu et peut être pénalisée par Google.

Exemple

Traduction littérale incorrecte : ❌ “Il court une entreprise.” (au lieu de “Il dirige une entreprise”).

Solution

  • Privilégier des traductions réalisées par des locuteurs natifs ou utiliser des outils de traduction de qualité combinés à une relecture humaine.

Oublier d’adapter le contenu aux spécificités culturelles

La localisation du contenu est essentielle pour un bon référencement international.

Exemple

  • Un site américain affichant “Free Shipping” doit préciser pour la France : “Liv

    FAQ sur les nouveautés SEO en 2025

    Pourquoi les Quality Rater Guidelines (QRG) sont-elles importantes pour le SEO ?

    Les QRG définissent les critères que Google utilise pour évaluer la qualité des pages web. Même si les évaluateurs de qualité n’influencent pas directement les classements, leurs retours aident Google à ajuster ses algorithmes. Donc, comprendre et respecter ces lignes directrices peut augmenter vos chances de bien vous positionner.

    Comment la mise à jour de janvier 2025 des QRG impacte-t-elle l’accessibilité du contenu principal ?

    Google insiste désormais sur la facilité d’accès au contenu principal. Les utilisateurs doivent trouver rapidement l’information qu’ils recherchent, sans être distraits par du contenu secondaire. Cette mise à jour est particulièrement cruciale pour les sites de recettes, qui doivent maintenant rendre leurs fiches recettes facilement accessibles.

    Quel est l’impact de la lutte contre l’abus de contenu à grande échelle sur les sites utilisant l’IA ?

    Google accorde une importance accrue à la détection de contenu paraphrasé sans valeur ajoutée. Les sites qui utilisent l’IA pour générer du contenu en masse, souvent reformulé, risquent d’être pénalisés. Il est donc essentiel de produire du contenu original et de qualité plutôt que de simplement reformuler des articles existants.

    Google tolère-t-il le contenu généré par l’IA ?

    Oui, mais avec des conditions. Le contenu généré par l’IA doit être utile et pertinent pour les utilisateurs. Google pénalise les contenus de mauvaise qualité, souvent identifiables par leur structure en questions-réponses génériques. Pour éviter les sanctions, assurez-vous que votre contenu IA ajoute une véritable valeur ajoutée.

    Les domaines expirés peuvent-ils encore être utilisés pour améliorer le référencement ?

    Oui, mais avec prudence. L’achat de domaines expirés pour améliorer le SEO n’est pas automatiquement pénalisé, mais l’intention derrière cette pratique est cruciale. Utiliser un ancien domaine d’école pour un site de casino, par exemple, est une mauvaise idée. Si vous voyez une chute de trafic, il peut être judicieux de supprimer ces redirections.

Lionel Godefroid Expert seo

Lionel est un professionnel spécialisé dans l’optimisation des résultats de recherche d’un site internet. Grâce à ses connaissances et à l’utilisation d’outils efficaces, il élabore des stratégies de mots-clés, de liens, de contenu et de référencement local et vidéo afin d’améliorer la visibilité du site sur les moteurs de recherche. En tant que consultant SEO, il utilise également son expertise pour suivre les tendances et mettre en place des stratégies pour faire remonter un site internet dans les résultats de recherche