Bienvenue dans le bulletin hebdomadaire sur le **SEO** : cette édition couvre des changements qui influencent la façon dont Google classe le contenu dans **Discover**, les premières indications sur la monétisation d’**AI Mode** et des recommandations sur ce qu’il convient (ou pas) de fournir aux robots d’IA.
Voici les points essentiels pour les professionnels du référencement et les responsables de contenu.
Google publie une mise à jour générale dédiée à **Discover**
Google a déployé la mise à jour principale de février 2026 spécifiquement axée sur le flux **Discover**. Il s’agit d’une modification large des règles de classement qui cible la surface **Discover** et non les résultats classiques de **Search**. Le déploiement peut s’étaler sur environ deux semaines.
Faits saillants : À l’origine, la mise à jour concerne uniquement les utilisateurs anglophones aux États‑Unis. Google prévoit d’étendre ce changement à d’autres langues et pays, sans calendrier précis communiqué. L’objectif déclaré est d’« améliorer globalement la qualité de **Discover** ». Les recommandations déjà publiées pour les mises à jour principales et pour **Discover** continuent de s’appliquer.
Pourquoi cela importe pour les spécialistes du **SEO**
Historiquement, les ajustements de classement touchant **Discover** étaient souvent intégrés à des mises à jour principales plus larges incluant **Search**. Le fait que **Google** annonce une mise à jour principale dédiée à **Discover** signifie que les positions dans le flux peuvent évoluer indépendamment des changements dans les résultats de recherche traditionnels.
Cette séparation crée une difficulté de suivi : si vous surveillez vos performances via le Search Console, il faudra examiner distinctement les données de **Discover** pendant les deux semaines suivant le déploiement. Une baisse de trafic qui ressemble à une pénalité de mise à jour principale peut en réalité n’affecter que **Discover**. Traiter toutes les variations comme si elles concernaient le **Search** mène à de mauvaises analyses et à des interventions inappropriées.
La dépendance des éditeurs vis‑à‑vis de **Discover** a augmenté. John Shehata, PDG de NewzDash, a rapporté que **Discover** représente environ 68 % du trafic issu de **Google** vers des sites d’information. Une mise à jour principale s’appliquant uniquement à cette surface augmente les enjeux pour les éditeurs fortement dépendants du flux.
Conséquences pratiques et actions recommandées pour les équipes techniques et éditoriales :
- Surveillez séparément les rapports **Discover** et **Search** dans le Search Console. Comparez les tendances sur au moins 28 jours, puis sur des périodes hebdomadaires pendant le déploiement.
- Identifiez les pages qui génèrent la majorité du trafic **Discover** et analysez les caractéristiques communes : formats AMP ou non, images de grande qualité, titres orientés vers l’actualité, balisage des données structurées.
- Vérifiez la qualité et la fraîcheur des visuels (images > 1200 px de large recommandées pour **Discover**) et la conformité aux consignes éditoriales de **Google** pour le contenu d’actualité et les pages de découverte.
- Si vous constatez une baisse significative, concentrez‑vous sur l’amélioration de la pertinence éditoriale et des signaux d’autorité (auteurs identifiables, informations sur la publication, sources citées) avant de modifier des facteurs techniques.
Lire notre article complet : Google Releases Discover-Focused Core Update
Les résultats d’Alphabet pour le T4 dévoilent la stratégie de monétisation d’**AI Mode**
Lors de la publication des résultats du quatrième trimestre 2025, Alphabet a confirmé une croissance des revenus issus du **Search**, qui ont augmenté de 17 % pour atteindre 63 milliards de dollars, et a fourni un premier aperçu concret de la façon dont elle prévoit de monétiser **AI Mode**.
Faits saillants : Le PDG, Sundar Pichai, a indiqué que les requêtes effectuées en **AI Mode** sont en moyenne trois fois plus longues que celles des recherches traditionnelles. Le Chief Business Officer, Philipp Schindler, a expliqué que cet usage génère un inventaire publicitaire atteignant des requêtes auparavant « difficiles à monétiser ». Google expérimente l’affichage de publicités sous les réponses générées par **AI Mode**.
Pourquoi c’est important pour le **SEO** et pour les annonceurs
Les détails sur la monétisation sont cruciaux : **Google** considère **AI Mode** comme une source d’inventaire additionnelle, pas comme un remplacement des formats publicitaires classiques du **Search**. Les requêtes plus longues et conversationnelles ouvrent des surfaces publicitaires nouvelles — des opportunités, mais aussi des risques pour le trafic de référence.
Implications pratiques :
- Pour les équipes paid search : il faudra explorer de nouvelles structures de campagnes optimisées pour des requêtes conversationnelles et des intentions complexes. Les mots‑clés à courte traîne perdent en pertinence face à des sessions longues et guidées par l’IA.
- Pour les responsables SEO : le risque principal est que des sessions plus longues et plus « contenues » sur **Google** réduisent les visites externes. Mesurez l’impact sur la part de trafic référent et suivez les taux de clics (CTR) et les impressions avant/après déploiement d’**AI Mode** dans vos marchés tests.
- Pour l’analyse produit : surveillez la durée des sessions, le nombre d’interactions par session et la proportion de réponses d’**AI Mode** incluant des extraits ou une synthèse qui pourrait suffire à l’utilisateur sans le conduire vers la source.
L’approche de **Google** laisse entendre qu’elle privilégie la rétention d’utilisateur sur sa plateforme (par des fonctionnalités telles que les « AI Overviews »). Du point de vue des sites éditeurs, cela renforce la nécessité de rendre le contenu suffisamment attractif et unique pour que l’utilisateur clique vers la source plutôt que de se contenter de la synthèse fournie par l’IA.
Lire notre compte rendu détaillé : Alphabet Q4 2025: AI Mode Monetization Tests And Search Revenue Growth
John Mueller s’oppose à l’idée de servir du Markdown aux crawlers d’LLM
John Mueller, défenseur de la recherche chez Google, a critiqué l’idée de fournir des fichiers Markdown bruts aux crawlers d’**LLM** au lieu d’HTML, qualifiant cette approche de « mauvaise idée » sur Bluesky et détaillant des objections techniques sur Reddit.
Faits saillants : Un développeur avait suggéré de livrer du Markdown aux robots d’IA pour réduire le nombre de tokens envoyés aux modèles. Mueller a soulevé des doutes quant à la capacité de ces robots à interpréter correctement du Markdown comme une page web structurée, en particulier pour le suivi des liens, la compréhension de l’arborescence interne, des en‑têtes et du système de navigation. Sur Bluesky, il a été plus franc et a qualifié la conversion dans ce sens de « stupid idea ».
Pourquoi cela concerne les professionnels du **SEO**
La pratique est née d’un raisonnement d’optimisation de coûts — réduire le nombre de tokens envoyés à l’**LLM** pour gagner en efficacité. Cependant, la simplification de pages complètes en Markdown risque d’éliminer des éléments structurants (balises, en‑têtes HTML, menu, liens contextuels) que les robots et modèles utilisent pour comprendre la relation entre pages et la hiérarchie d’un site.
Conséquences et recommandations :
- Ne considérez pas le Markdown comme une alternative à l’HTML pour l’indexation ou la compréhension du site par des crawlers sophistiqués. HTML contient des indices (liens rel, balises nav, données structurées) essentiels au repérage de l’intention et des relations internes.
- Si vous testez des flux optimisés pour transmission aux API d’**LLM**, conservez une version complète HTML publique destinée aux robots de recherche classiques et fournissez éventuellement des endpoints API séparés pour des usages spécifiques de l’IA, en veillant à ne pas altérer la navigation et le linking interne.
- Documentez et testez rigoureusement : vérifiez que les robots qui consomment vos données peuvent suivre les liens internes et reconnaître les métadonnées importantes (authors, dates, etc.).
La position de Mueller s’inscrit dans une ligne de conseil technique cohérente : il trace une frontière claire entre ce qui peut être optimisé pour des bots spécifiques et ce qui doit rester conforme aux attentes des moteurs de recherche. Par ailleurs, des analyses comme celle de SE Ranking, portant sur 300 000 domaines, n’ont montré aucune corrélation entre la présence d’un fichier llms.txt et les taux de citation par les **LLM** — ce qui renforce l’idée qu’il n’existe pas de raccourci simple ou universel pour améliorer la visibilité auprès des IA en changeant uniquement le format de diffusion.
Lire notre synthèse : Google’s Mueller Calls Markdown-For-Bots Idea ‘A Stupid Idea’
Google signale des bugs liés à des plugins WooCommerce qui génèrent des URLs inutiles
Lors du podcast Search Off the Record, l’équipe Search Relations a indiqué avoir déposé des rapports de bogue concernant des plugins WordPress (notamment pour WooCommerce) qui créent des URLs crawlables superflues via des paramètres d’action comme les liens « add‑to‑cart ».
Faits saillants : Certains plugins produisent des URL que Googlebot découvre et tente de crawler, ce qui dilue le budget d’exploration sur des pages sans valeur pour le référencement. Google a donc soumis des bugs à WooCommerce et identifié d’autres plugins toujours problématiques. L’intervention ciblait les auteurs de plugins plutôt qu’une correction page par page côté site.
Pourquoi c’est pertinent pour les équipes SEO et e‑commerce
Il est inhabituel que Google intervienne à ce niveau. Habituellement, l’optimisation du crawl revient aux webmasters et responsables techniques des sites. Le dépôt de bugs en amont indique que le problème est suffisamment répandu pour qu’une simple correction isolée ne répare pas la situation globale.
Actions concrètes recommandées :
- Audit technique : identifiez les paramètres d’URL créés par vos plugins (ex. ?add-to-cart=, ?qty=, ?action=) et évaluez s’ils sont indexables. Utilisez l’outil d’inspection d’URL du Search Console pour voir comment Googlebot voit ces pages.
- Robots.txt et balises noindex : bloquez ou marquez en noindex les patterns d’URL qui n’apportent aucune valeur SEO (pages de panier, sessions utilisateur, actions de formulaire). Attention toutefois à ne pas bloquer des contenus valables involontairement.
- Paramètres d’URL dans Search Console : configurez la gestion des paramètres si nécessaire (avec prudence) pour indiquer comment traiter certains paramètres d’action.
- Dialogue avec les développeurs : si un plugin distribue des URLs d’action crawlables, alertez le support du plugin et suivez les mises à jour. Si vous êtes développeur de plugin, adaptez la sortie pour éviter de générer des liens absolus crawlables vers des actions internes.
Pour les sites e‑commerce, l’impact sur le budget de crawl peut se traduire par une indexation plus lente des pages produit importantes ou par une baisse de découverte de nouvelles pages commerciales. Traitez ces problèmes rapidement, surtout si vous observez des anomalies dans les rapports de couverture d’indexation du Search Console.
Lire notre analyse : Google’s Crawl Team Filed Bugs Against WordPress Plugins
LinkedIn publie des tests sur la visibilité dans les résultats de recherche générés par l’IA
LinkedIn a partagé des résultats issus d’expérimentations internes visant à déterminer ce qui influence la visibilité dans les réponses générées par l’IA. L’entreprise a observé, pour certains sujets B2B, une baisse pouvant atteindre 60 % du trafic non motivé par la notoriété de marque.
Faits saillants : Le test de LinkedIn a montré que le contenu structuré est plus fréquemment cité par les IA : pages avec auteurs identifiés, preuves de compétence visibles (titres, affiliations), dates de publication explicites et structure claire du contenu (titres, sous‑titres, sommaires) sont favorisées. LinkedIn développe aussi des outils analytiques pour détecter la source de trafic générée par les **LLM** et pour surveiller le comportement des crawlers IA dans les logs CMS.
Pourquoi c’est utile pour les équipes de contenu et SEO
Ce qui est intéressant, c’est la convergence entre les conclusions de plateformes AI‑first et celles de sources citées : les critères de visibilité dans les citations IA semblent se recouper. Par exemple, des entretiens récents entre Search Engine Journal et Jesse Dwyer, responsable communication chez Perplexity, montrent des recommandations similaires sur la manière dont une plateforme d’IA choisit ses sources.
Considérations opérationnelles :
- Renforcez les signaux d’autorité : affichez un auteur clairement identifié, une courte bio ou crédentialisation, et, lorsque pertinent, des références vérifiables ou des citations primaires.
- Structurez votre contenu : utilisez des sous‑titres explicites, des listes, des résumés introductifs et des conclusions claires. Ces éléments facilitent l’extraction d’informations pertinentes par des modèles d’IA et augmentent la probabilité d’être cité comme source.
- Horodatage : indiquez la date de publication et les mises à jour. Les IA privilégient souvent le contenu récent ou clairement daté pour des sujets sensibles au temps.
- Surveillance des logs : implémentez une instrumentation côté serveur pour identifier les crawlers d’IA (si possible) et distinguer le trafic généré par des sessions LLM. LinkedIn travaille justement sur ce type d’outils.
Enfin, notez que la visibilité IA n’exclut pas l’importance de la SEO traditionnelle : être cité par une IA peut augmenter la crédibilité et indirectement favoriser le trafic organique, mais la nature des sessions et le chemin utilisateur peuvent changer.
Lire la synthèse complète : LinkedIn Shares What Works For AI Search Visibility
Thème de la semaine : le tableau de bord se fracture — il faut surveiller plusieurs surfaces
Les nouvelles de cette semaine soulignent une réalité fondamentale : surveiller « Google » comme une seule entité n’est plus suffisant.
Les décisions de **Google** — publier des mises à jour principales séparées pour **Discover**, expérimenter la monétisation d’**AI Mode**, définir des règles de consommation de contenu par les robots, et signaler des bugs au niveau des plugins — montrent que les surfaces sont désormais distinctes et évoluent indépendamment. Parallèlement, d’autres plateformes comme LinkedIn développent des métriques séparées pour capter le trafic provenant d’IA.
Il y a un an, un manager pouvait regarder un graphe de trafic unique dans le Search Console et avoir une vision relativement fiable. Désormais, l’image est fragmentée entre **Discover**, **Search**, **AI Mode** et le trafic induit par les **LLM**. Les signaux de classement, les cycles de mise à jour et les formats de monétisation divergent, et les ponts entre ces surfaces ne sont pas encore totalement établis.
Conséquences pratiques : checklist de surveillance et priorités
Pour gérer cette complexité, voici une liste de tâches pratiques à intégrer à vos routines :
- Segmentation des rapports : isolez les données par surface (Search vs Discover vs autres sources IA) et créez des tableaux de bord distincts par canal.
- Alerting granulaire : paramétrez des alertes pour baisses soudaines sur **Discover** indépendantes de **Search** et vice versa.
- Analyse d’impact : calculez la part du trafic provenant d’**Discover** et simulez l’effet d’une baisse de 10–50 % sur vos revenus publicitaires ou conversions.
- Tests A/B : pour les pages ciblant des réponses IA, testez des formats éditoriaux (auteur visible, sommaire, FAQ, données structurées) et mesurez la différence de citation ou d’inclusion dans des réponses d’IA.
- Suivi des mots clés conversationnels : surveillez l’émergence de requêtes longues et conversationnelles, et adaptez votre contenu et vos campagnes paid search en conséquence.
- Bonnes pratiques techniques : maintenez une version HTML complète et structurée de toutes les pages publiques, ne supprimez pas la navigation ni les balises nécessaires à l’interprétation par les robots.
Que surveiller dans les semaines à venir
Priorités immédiates :
- Durant le déploiement de la mise à jour **Discover**, examinez les métriques par surface et identifiez les pages affectées.
- Suivez les tests de monétisation d’**AI Mode** et notez l’impact éventuel sur le trafic de référence : baisse du CTR vers les sources externes, hausse du temps passé sur la plateforme.
- Surveillez les annonces et tickets relatifs aux plugins WordPress et WooCommerce ; corrigez les patterns d’URL problématiques si vous êtes concerné.
- Adoptez des pratiques éditoriales favorisant la citation par les IA : auteurs, crédentials, dates et structure claire.
Top Stories Of The Week :
La semaine a été marquée par cinq développements majeurs : une mise à jour principale ciblée **Discover**, des indications sur la monétisation d’**AI Mode**, le rejet de la stratégie Markdown pour les crawlers d’**LLM**, des bugs déposés par Google contre des plugins WordPress, et la publication par LinkedIn d’observations sur la visibilité IA.
More Resources :
Featured Image: Accogliente Design/Shutterstock
Articles connexes
- Outil personnalisable pour sites générés par l’intelligence artificielle
- Amazon subit une baisse de visibilité dans les résultats de recherche Google
- extensions de domaine internet : procédure de candidature 2026 finalement approuvée par l’ICANN
- Google indique discrètement que NotebookLM ne respecte pas robots.txt
- comment évaluer les performances sur Google Discover
- Comment l’IA réinvente les pratiques de référencement et la stratégie de contenu : recommandations de Semji
- une nouvelle dimension du référencement technique
- 5 évolutions incontournables du référencement pour les entreprises et de l’intelligence artificielle en 2026
