En début de semaine, OpenAI a transmis à une centaine de médias un document partenaire détaillant des statistiques mensuelles sur la façon dont les liens issus des sites d’éditeurs sont présentés et consultés dans ChatGPT. Vincent Terrasi, consultant en référencement, a obtenu une copie de ce rapport et a partagé ses conclusions principales via un post LinkedIn.
Le fondateur de Draft & Goal a accepté d’expliquer, pour BDM, la portée de ce document qui, selon lui, marque le début d’« une transition structurelle » dans la manière dont le web distribue et expose les contenus.
Que révèle précisément le rapport d’OpenAI ?
Le fichier transmis par OpenAI n’est pas présenté comme un manuel technique interne, précise Vincent Terrasi. Il s’agit plutôt d’un tableau de bord pensé pour les organisations « apparaissant régulièrement dans les réponses de ChatGPT ». Les métriques proposées sont inédites : elles offrent une visibilité directe sur la présence des ressources web au sein des conversations générées par l’outil.
Parmi les indicateurs clés fournis dans ce document on trouve :
- Le nombre d’impressions d’une URL spécifique dans les réponses de ChatGPT ;
- La position exacte où ces liens sont affichés (dans la réponse principale, en barre latérale, en citation, ou en suggestion) ;
- Le volume effectif de clics provenant de l’interface ;
- Des précisions au niveau de chaque conversation, permettant d’analyser le parcours utilisateur de façon granulée.
Selon l’expert, ces chiffres sont issus du suivi que ChatGPT opère déjà sur tout ce qu’il affiche. Pour l’instant, OpenAI partage ces données avec un échantillon restreint de partenaires afin d’expérimenter les métriques et de limiter les interprétations hâtives avant une éventuelle ouverture plus large.
Les partenaires servent de bancs d’essai pour comprendre comment les citations sont perçues, comment réagissent les internautes et comment stabiliser ces indicateurs […]. Une forte visibilité associée à un CTR très bas peut prêter à confusion si l’on raisonne avec des réflexes SEO classiques.
« Les agents remplacent progressivement l’acte de cliquer » : ce que montrent les chiffres
Que nous apprennent concrètement ces nouvelles données ? Vincent Terrasi livre une observation nette : la visibilité n’est plus synonyme de transfert de trafic. Autrement dit, on peut obtenir des centaines de milliers d’impressions pour un taux de clics (CTR) quasi nul.
Pour illustrer, l’expert signale des cas où une même URL affiche plus de 500 000 impressions dans le rapport, mais ne reçoit qu’un faible millier de clics — soit un CTR de l’ordre de 1 à 2 % ou même largement inférieur pour d’autres pages. Ce décalage peut surprendre, mais il répond à une logique intuitive : si la réponse est directement donnée dans la fenêtre de discussion, l’utilisateur n’a souvent pas besoin d’ouvrir la source.
Trois facteurs principaux expliquent ce phénomène :
- L’interface fermée de ChatGPT, limitant le réflexe de navigation ;
- La capacité de l’outil à synthétiser les informations et à présenter une réponse complète sans renvoyer systématiquement vers le web ;
- La manière dont les sources sont affichées : elles apparaissent fréquemment comme des références secondaires plutôt que comme des incitations directes à cliquer.
ChatGPT n’est pas conçu pour rediriger systématiquement vers des pages web : il produit des réponses directement dans la conversation. Le comportement des utilisateurs est donc logique : s’ils trouvent la réponse dans la fenêtre, le réflexe de cliquer se réduit […]. Les agents prennent progressivement la place de l’action de cliquer.
Un paradoxe intéressant se dégage : les contenus très complets ont tendance à générer moins de clics que des pages fragmentaires ou partielles. Explication : lorsqu’un article est riche en informations, ChatGPT peut l’exploiter pour répondre sans renvoyer vers l’original. À l’inverse, une source peu détaillée incitera davantage l’utilisateur à consulter la page source pour compléter ou vérifier la réponse. C’est pourquoi Vincent Terrasi anticipe l’apparition de nouveaux formats pensés pour les systèmes d’IA — des formats plus variables, ciblés et actionnables — capables d’être consommés directement par des modèles.
Quelles implications pour les éditeurs et producteurs de contenus ?
La mutation observée introduit un changement profond : nous passons d’un web optimisé pour des humains naviguant via des navigateurs, à un web pensé pour être lu et interprété par des IA et leurs agents. Ces intermédiaires deviennent des couches structurantes entre les pages web et les lecteurs, et la compatibilité machine gagne en importance par rapport à la logique du clic.
Dans ce modèle émergent, les IA lisent le web, en extraient des micro-fragments pertinents, les recomposent dans des réponses synthétiques et deviennent les médiateurs principaux entre les sites et les utilisateurs. Le trafic direct perd de sa centralité, tandis que la lisibilité pour machines devient prioritaire, et les agents la couche dominante d’accès au savoir.
Pour les éditeurs, plusieurs conséquences pratiques se dégagent :
- Le trafic généré par les interfaces conversationnelles restera probablement faible même si la visibilité augmente fortement ;
- La visibilité servira davantage d’indicateur d’autorité et de légitimité au sein de l’écosystème des agents que de source de trafic mesurable ;
- Les contenus devront être pensés en priorité pour être facilement interprétés par des modèles, et non uniquement pour être agréables à lire par un humain.
Face à ces évolutions, Vincent Terrasi propose quatre recommandations concrètes pour adapter la production éditoriale :
- Améliorer la structuration des pages : balisage sémantique, titres clairs, résumés lisibles pour une consommation machine.
- Produire des contenus directement exploitables par les modèles : phrases factuelles, données chiffrées accessibles, métadonnées pertinentes.
- Favoriser des formats modulaires : blocs courts, résumés, listes, tableaux — des unités qui se recomposent facilement dans une réponse.
- Concevoir des pages conçues pour être synthétisées : introductions explicites, sections « à retenir », et balises qui facilitent l’extraction automatique.
Structurer pour la lecture machine : bonnes pratiques détaillées
La première recommandation — renforcer la structuration des pages — mérite d’être déclinée en actions concrètes :
- Utiliser des balises HTML sémantiques (h1/h2/h3, p, ul, ol, table) pour matérialiser la hiérarchie de l’information ;
- Insérer des résumés/« chapô » clairs en début d’article qui synthétisent l’essentiel en un ou deux paragraphes ;
- Ajouter des listes à puces et des tableaux pour rendre les données directement lisibles et copiables par un modèle ;
- Soigner les métadonnées (title, meta description, balises Open Graph et schema.org) avec des formulations factuelles et structurées.
Créer des contenus exploitables : format et granularité
Pour être utiles aux IA, les contenus doivent privilégier la densité d’information et une modularité qui facilite l’extraction :
- Fragmenter les articles en sections indépendantes, chacune traitant d’un point précis ;
- Rédiger des résumés courts en haut de chaque section ;
- Fournir des encadrés de données ou des bullet points récapitulatifs à la fin de l’article ;
- Rendre disponibles des sources et références structurées (liens directs, mentions claires des auteurs et des dates).
Formats modulaires et actionnables : vers un nouveau design éditorial
L’approche modulaire permet aux agents de composer des réponses à partir de micro-unités fiables. Concrètement, cela peut se traduire par :
- Fiches pratiques normalisées pour chaque sujet (problème / solution / étapes / ressources) ;
- Résumés « one-shot » destinés à être insérés tels quels dans une réponse conversationnelle ;
- Snippets structurés pour données techniques ou chiffrées (par exemple : specs produits, statistiques, définitions) ;
- Templates d’articles « actionnables » que les modèles peuvent citer ou reformuler sans perte d’information.
Un avenir avec une « Search Console » dédiée aux IA ?
Les éléments présentés dans le document partenaire dessinent les contours d’un outil de suivi pensé pour l’ère des agents. À l’image de la Search Console de Google, ce type de console pour IA offrirait des métriques propres à l’accès conversationnel : impressions par URL, zones d’apparition, CTR, et typologie de requêtes (réponse directe vs. recherche en direct).
Pour Vincent Terrasi, la venue d’un tel outil est inévitable : « la question n’est plus ‘si’, mais ‘quand’ ». Les briques techniques existent déjà dans le tableau de bord partagé : il s’agit surtout de formaliser, standardiser et ouvrir cet accès.
Les indicateurs présents — impressions par URL, zones d’affichage, CTR, type d’appel (réponse directe versus recherche en direct) — correspondent exactement à la structure que pourrait adopter une Search Console dédiée aux IA.
Reste la question de l’accès : il est probable que l’outil soit d’abord réservé à des partenaires sélectionnés, puis élargi graduellement dans le cadre d’un ensemble de normes que certains appellent déjà « AI Web Standards ». À terme, une ouverture contrôlée permettrait aux éditeurs d’analyser leur visibilité dans l’écosystème conversationnel et d’ajuster leur stratégie éditoriale.
Accès et gouvernance : quelles options ?
Plusieurs scénarios restent plausibles :
- Un accès progressif réservé aux médias partenaires, puis étendu aux propriétaires de sites, à la manière d’un bêta fermé ;
- Une ouverture plus large après la définition de standards communs d’attribution et de transparence (protocoles d’identification des sources, pratiques de citation) ;
- Des interfaces API permettant d’exporter les données pour intégration dans des tableaux de bord tiers, afin que les équipes SEO et éditoriales puissent exploiter ces métriques dans leurs outils habituels.
Que mesurer et comment adapter sa stratégie SEO ?
La disparition relative du lien direct comme principal vecteur de trafic modifie la nature des KPI pertinents pour les équipes éditoriales et SEO. Voici quelques axes à privilégier :
- Suivre la visibilité par URL dans les rapports fournis par les interfaces conversationnelles, pas seulement le trafic direct ;
- Analyser le CTR dans son contexte : un CTR bas peut signifier que la page sert principalement de source d’autorité pour les réponses, et non de destination de navigation ;
- Mesurer l’impact indirect : citations, mentions de marque, et influence sur d’autres moteurs d’engagement (par ex. partages sociaux, requêtes de marque) ;
- Tester des formats et mesurer leur capacité à être repris par les agents (ex. snippets FAQ, encadrés chiffrés, méthodologies étape par étape).
En pratique, il devient utile de combiner des métriques classiques (sessions, pages vues, taux de rebond) avec des indicateurs spécifiques aux environnements conversationnels (impressions d’URL dans les réponses, positions d’affichage, taux d’extraction d’informations).
Exemple d’indicateurs à suivre
- Impressions d’URL dans les réponses de l’agent ;
- Part de vues en réponse principale vs. en citation ou suggestion ;
- CTR depuis l’interface conversationnelle (par zone d’affichage) ;
- Proportion d’extraits repris dans des réponses synthétiques (ex. citation verbatim) ;
- Évolution des requêtes de marque et du trafic indirect (recherches générées après exposition dans l’IA).
Scénarios éditoriaux : adaptations concrètes pour les rédactions
Concrètement, comment une rédaction ou une équipe SEO peut-elle se préparer ? Voici des pistes opérationnelles :
- Audit des contenus : identifier les pages les plus susceptibles d’être utilisées par les IA (pages factuelles, guides pratiques, fiches produits) ;
- Refonte de templates éditoriaux : intégrer systématiquement un résumé exploitable, des listes et des encadrés « À retenir » ;
- Optimisation technique : structuration via schema.org, optimisation des balises et des métadonnées ;
- Expérimentation continue : publier des formats modulaires et mesurer leur taux d’extraction et de citation par les agents.
Ces actions renforcent la capacité d’un site à être lu et correctement interprété par des modèles, augmentant ainsi ses chances d’apparaître comme source crédible dans les réponses conversationnelles, même si le traffique direct reste limité.
Limites et risques à prendre en compte
Cette transformation n’est pas sans risques. Parmi les points de vigilance :
- La dépendance à des plateformes propriétaires : si l’accès et la visibilité sont contrôlés par un nombre restreint d’acteurs, la diversité des sources peut se réduire ;
- La possible perte de contextes : une synthèse peut dénaturer ou simplifier excessivement une information complexe ;
- Les enjeux d’attribution et de rémunération : comment valoriser la production qui sert de matière première aux IA sans générer de trafic ?
Les éditeurs devront donc peser l’équation entre optimisation pour lecture machine et préservation de la valeur éditoriale, tout en revendiquant des standards de transparence et d’attribution auprès des plateformes.
Vincent Terrasi, Co-fondateur
Vincent Terrasi est expert en SEO et en data, spécialisé dans l’application de l’IA au référencement. Cofondateur et CTO de Draft & Goal, il accompagne des équipes éditoriales et techniques pour tirer parti du machine learning et optimiser leur visibilité sur le web.
Articles connexes
- Tirez parti de la rédaction par l’IA pour votre stratégie de contenu et votre visibilité dans les résultats de recherche
- vulnérabilité du plugin d’avis clients WooCommerce touche plus de 80 000 sites
- Checklist d’audit SEO local : 12 étapes pour améliorer votre visibilité en ligne
- Google n’envisage pas de réduire l’usage des données structurées en 2026
