ChatGPT reste discret sur ses méthodes. Alors que la documentation publique d’OpenAI et les accords avec Microsoft laissaient entendre que le chatbot s’appuyait uniquement sur Bing pour ses extractions web, des investigations récentes viennent remettre en question ce récit. Des expériences menées par différents spécialistes — notamment une analyse signée Alexis Rylko et un travail relayé par Semrush basé sur les observations d’Abhishek Iyer — suggèrent que ChatGPT, ou au moins sa déclinaison SearchGPT, puise désormais une part significative de ses sources dans l’index de Google.
Ce mouvement, discret mais potentiellement structurant, soulève des questions concrètes pour les professionnels du SEO : faut-il réduire l’attention portée à Bing ? Faut-il optimiser davantage pour les logiques de Google afin d’apparaître dans les réponses générées par IA ? Et comment se préparer à l’arrivée des fonctions dites AI Overviews ? Pour tenter d’y voir plus clair, nous avons interrogé Gwenneg Marié, responsable SEO chez Hellowork, et rassemblé les conclusions des études récentes ainsi que des pistes pratiques pour les équipes web et marketing.
Ce que révèlent les enquêtes sur la recherche web de ChatGPT
Plusieurs analyses publiées ces dernières semaines remettent en question l’affirmation selon laquelle ChatGPT utiliserait exclusivement Bing pour toute recherche en ligne. Dans l’étude d’Alexis Rylko, une comparaison systématique entre les résultats fournis par SearchGPT et ceux des différents moteurs révèle un recoupement impressionnant avec les pages indexées par Google : selon les jeux de requêtes testés, entre 70 % et 90 % des URLs retournées par SearchGPT apparaissent également dans les SERP de Google, alors que la concordance avec Bing n’atteint que 30 % en moyenne.
Les techniques observées vont au-delà de la simple coïncidence d’URLs : les extraits affichés, la manière dont sont sélectionnées des pages chargées via JavaScript et la hiérarchisation des sources indiquent une forte proximité avec la manière dont Google indexe et tranche l’information. Autrement dit, il ne s’agit pas simplement d’un partage ponctuel d’URLs, mais d’un choix systématique qui reflète la logique de Google.
L’étude relayée par Semrush complète ces observations par une autre démonstration technique : Abhishek Iyer a publié intentionnellement un terme inventé sur une page qui n’était indexée que par Google. ChatGPT a ensuite été capable de retrouver ce terme et de l’utiliser dans ses réponses, ce qui implique un accès, direct ou indirect, à l’index — ou au cache — de Google. Des expérimentateurs indépendants ont répliqué ce comportement, y compris sur les versions payantes de ChatGPT, renforçant la crédibilité des constatations.
Ces travaux montrent que ChatGPT consulte très probablement l’index de Google ou en exploite des données, même si l’interface continue parfois à déclarer une dépendance à Bing.
Faut-il changer d’approche vis-à-vis de Bing et revoir sa stratégie SEO ?
Face à ces éléments, une interrogation revient fréquemment : si ChatGPT se comporte comme s’il utilisait Google mais continue d’afficher une dépendance à Bing, comment doivent réagir les équipes SEO ? Pour Gwenneg Marié, cette révélation oblige avant tout à nuancer et à adapter les priorités plutôt qu’à renverser brutalement la stratégie.
« Au départ, lorsque ChatGPT a gagné en visibilité, nous avons cherché à comprendre l’origine des données consultées, tout en partant du principe que la fonctionnalité Search s’appuyait sur Bing, » explique le responsable SEO. « Dans certains cas locaux ou très spécifiques, on avait déjà constaté l’apparition de résultats issus de Google. »
Le fait que ChatGPT semble de plus en plus puiser dans Google invite à rééquilibrer les efforts techniques et éditoriaux, sans pour autant abandonner complètement Bing.
Concrètement, l’équipe SEO d’Hellowork avait établi une feuille de route intégrant une surveillance accrue des bots Bing, un suivi des logs et un monitoring des positions sur ce moteur. Avec les nouvelles observations, ces actions restent pertinentes mais peuvent être recentrées : « Cela modifie l’intensité de certains chantiers, mais pas leur existence. L’écosystème est fluide : à l’heure actuelle, Google capte davantage de requêtes, mais rien n’empêche Bing de regagner du terrain ultérieurement. »
Comment ChatGPT interroge apparemment les index : une recherche Google réorganisée
Les expérimentations menées par Alexis Rylko, ainsi que des tests internes réalisés par des équipes SEO comme celle d’Hellowork, ont permis d’observer un basculement progressif de ChatGPT vers l’index de Google. Gwenneg Marié rapporte : « Nous avions déjà noté que ChatGPT interrogeait Google quand Bing n’apportait pas les réponses — notamment sur des requêtes extrêmement fraîches ou très spécifiques, car l’index de Bing était parfois moins à jour. »
Le changement d’échelle apparaît toutefois plus récent : « Aujourd’hui, même lorsque Bing possède des pages pertinentes, ChatGPT semble privilégier l’index de Google. » Les résultats correspondent aux analyses qui montrent une large proportion d’URLs communes entre SearchGPT et les SERP de Google, contre peu de recoupements avec Bing.
Mais attention à ne pas confondre simple copie des SERP et traitement spécifique par l’IA. Selon les observations, ChatGPT ne se contente pas de répliquer la page de résultats : il reformule le prompt initial en plusieurs requêtes, interroge probablement un index (ici, vraisemblablement Google), puis applique sa propre logique de tri. Des signaux comme le title, la structure HTML, voire certains marqueurs de confiance peuvent servir à réordonner les résultats selon une grille de lecture propre à l’IA.
Des essais internes montrent que ChatGPT reformule le prompt de l’utilisateur, exécute plusieurs requêtes contre un index, puis réorganise les résultats selon des critères qui lui sont propres.
Autrement dit, la production finale de l’IA combine interrogation d’un index public et réévaluation éditoriale. Pour les acteurs du web, cela implique de faire attention à la manière dont leurs pages peuvent être lues et interprétées par une couche algorithmique supplémentaire.
Visibilité implicite et nouvelles métriques à définir pour le SEO
La capacité de ChatGPT à s’alimenter dans l’index de Google remet en lumière la notion de visibilité implicite : une marque peut voir sa notoriété influencée par des réponses générées par IA sans que cela transite nécessairement par des clics traditionnels vers son site. Plusieurs axes de surveillance apparaissent donc essentiels :
- Contrôler si la marque est mentionnée dans les réponses générées par l’IA sur des requêtes stratégiques ;
- Repérer l’origine des sources citées par l’IA : proviennent-elles directement des contenus de la marque ou plutôt d’intermédiaires (médias, plateformes d’agrégation, partenaires) ?
Gwenneg Marié résume la problématique : « Si un média ou un site tiers est cité à notre place, cela peut déclencher des actions de relations presse ou éditoriales afin d’améliorer la visibilité via ce canal. » Pour l’heure, l’approche chez Hellowork reste pragmatique : « Nous continuons à optimiser pour Google. Si ChatGPT se sert de nos contenus, tant mieux, mais nous ne remodelons pas nos titles ou metas spécifiquement pour l’IA. Les fondamentaux — balises, données structurées, qualité éditoriale — demeurent prioritaires. »
Un autre point crucial est l’arrivée des AI Overviews, ces synthèses automatisées qui pourraient être intégrées aux résultats des moteurs. Leur adoption risque d’affecter le trafic organique : « Si une part importante de l’expérience utilisateur se fait à travers des synthèses — et donc sans clic vers les pages sources — l’impact sur le trafic sera massif. Or, pour l’instant, ChatGPT préfère interroger l’index brut et fabriquer sa propre synthèse plutôt que d’imiter une AI Overview. »
En conséquence, la frontière entre moteur de recherche et assistant conversationnel s’estompe, et les professionnels du SEO devront concevoir des métriques complémentaires : visibilité dans les réponses IA, part de sources citées, part de trafic conservé, influence sur la notoriété et le funnel de conversion.
Conséquences pratiques et recommandations pour les équipes SEO
À partir des constats exposés, voici des recommandations concrètes, applicables par les équipes techniques et éditoriales, pour mieux gérer l’exposition aux réponses générées par IA comme ChatGPT :
- Maintenir une optimisation robuste pour Google : continuer d’appliquer les standards classiques (balises title, méta descriptions informatives, structure Hn cohérente, maillage interne), car l’IA semble largement puiser dans cet index.
- Soigner les données structurées : les schémas (Schema.org) aident à clarifier l’intention et le contexte d’un contenu. Les assistants et moteurs exploitent ces marqueurs pour comprendre la nature d’une page et extraire des éléments pertinents pour des résumés.
- Surveiller la visibilité IA : intégrer des dispositifs de veille pour détecter les mentions de la marque ou des contenus dans les réponses d’assistants. Cela peut reposer sur des requêtes automatisées, du monitoring de forums spécialisés, ou des tests manuels sur des plateformes alimentées par IA.
- Analyser les sources citées : lorsqu’une IA s’appuie sur des contenus tiers pour représenter votre marque, repérer ces sources permet de prioriser des actions de relations presse ou de partenariat éditorial.
- Évaluer l’impact sur le trafic et les conversions : reconsidérer les KPI traditionnels (clics organiques, positions) en y ajoutant des indicateurs qualitatifs (mentions dans synthèses, visibilité implicite, rôle dans le funnel) afin de mesurer l’effet réel des assistants.
- Tester des formats synthétiques : produire des résumés structurés, FAQs, et contenus « scannables » (titres clairs, listes, définitions) qui facilitent la réutilisation par une IA tout en contrôlant la présentation des informations.
- Suivre les évolutions des index : monitorer régulièrement l’indexation sur Google et Bing, comparer les différences de couverture, et adapter les priorités techniques en fonction des variations observées.
- Garder une vigilance sur la fraîcheur : les assistants privilégient parfois des index plus récents pour des requêtes très fraîches. Anticiper cela en publiant rapidement et en vérifiant la bonne indexation des contenus récents.
Ces actions doivent être mises en place en gardant à l’esprit la nature mouvante des systèmes : l’environnement peut évoluer rapidement et les poids relatifs de Google et Bing dans l’écosystème des assistants peuvent changer.
Mesurer la visibilité « hors clic » : outils et méthodologie
Le défi majeur posé par l’émergence d’assistants qui synthétisent l’information est de mesurer une visibilité qui ne se traduit pas toujours par un clic. Voici des approches méthodologiques pour construire des tableaux de bord pertinents :
- Requêtes tests automatisées : élaborer un set de requêtes représentatives des intentions clés de la marque et exécuter régulièrement ces requêtes sur les interfaces d’assistants et sur les moteurs. Enregistrer les réponses (screenshots, extraits) pour analyser la présence ou l’absence de la marque.
- Comparaisons SERP vs réponses IA : pour chaque requête, comparer les URLs listées dans les SERP de Google et Bing avec celles citées ou utilisées par l’assistant afin de détecter des écarts systématiques.
- Tracking des sources citées : implémenter un suivi des sites qui apparaissent fréquemment dans les extraits IA afin d’identifier des partenaires ou des concurrents qui bénéficient d’une exposition « implicite ».
- Surveillance des mentions et de la notoriété : étendre la veille médias (RP) aux canaux conversationnels et aux documents produits par des assistants pour repérer les usages de la marque dans des résumés ou réponses automatisées.
- Tests A/B sur formats : expérimenter des formats de contenu (par ex. articles longs vs articles structurés en blocs) pour mesurer lesquels sont plus souvent repris par les IA, en gardant une période d’observation suffisante.
En synthèse, la mise en place d’un observatoire interne combinant tests techniques, veille éditoriale et analyses comparatives permettra de mieux comprendre la place de la marque dans cet écosystème hybride.
Les implications stratégiques pour les éditeurs et les médias
Pour les éditeurs et les sites d’information, la montée des assistants utilisant l’index de Google change le rapport à la monétisation et à l’audience. Si les réponses synthétiques réduisent le nombre de clics, elles peuvent aussi accroître la visibilité d’une source en tant que référence. Les questions clés à traiter sont :
- Comment concilier perte potentielle de trafic et gain de notoriété ?
- Quels accords de distribution ou partenariats privilégier avec des agrégateurs ou plateformes qui servent de sources aux assistants ?
- Comment protéger la valeur journalistique lorsque le contenu est repris sans attribution claire ou sans trafic renvoyé ?
Des modèles hybrides pourraient émerger : articles enrichis conçus pour la lecture humaine mais structurés pour être facilement réutilisés par des assistants, accords de licence avec des plateformes, ou encore outils d’APIs permettant de fournir des extraits vérifiables et monétisables.
Enjeux juridiques et éthiques
Lorsque des assistants exploitent l’index d’un moteur pour produire des synthèses, des questions juridiques et éthiques apparaissent : attribution des sources, respect des droits d’auteur, transparence des méthodes et circulation des contenus. Si des sites tiers sont systématiquement utilisés comme sources sans trafic renvoyé, cela pose des défis pour la rémunération des producteurs de contenu.
Par ailleurs, la capacité d’un assistant à reformuler et synthétiser des informations peut générer des risques de décontextualisation, d’erreurs factuelles ou d’amplification d’informations obsolètes. Les éditeurs devront donc renforcer les pratiques de vérification et réfléchir à des mécanismes permettant d’assurer la traçabilité des extraits utilisés par les intelligences artificielles.
Perspectives : vers une cohabitation moteur—assistant
Les études et retours du terrain montrent que la frontière entre moteur de recherche et assistant conversationnel est de plus en plus floue. ChatGPT semble, selon les analyses, puiser régulièrement dans l’index de Google tout en appliquant un traitement éditorial propre. On observe ainsi une superposition de couches algorithmiques : l’indexation et le scoring du moteur, puis la reformulation et la synthèse par l’IA.
Pour les équipes SEO, cela implique d’évoluer vers des pratiques mixtes : maintenir des optimisations classiques pour les moteurs, produire des contenus qui se prêtent à une réutilisation par des assistants (clarté, structuration, sources vérifiables), et développer des métriques nouvelles qui captent la visibilité hors clic. La flexibilité et la capacité d’adaptation seront des atouts majeurs dans cet environnement changeant.
Enfin, il est probable que les acteurs techniques ajustent leur architecture : moteurs, agrégateurs et plateformes d’intelligence artificielle peuvent consolider des échanges de données (formels ou informels) qui influeront sur la manière dont l’information circule et sur la valeur économique du contenu en ligne.
Conclusion : rester pragmatique et préparer l’après
Les preuves accumulées indiquent que ChatGPT exploite, d’une façon ou d’une autre, l’index de Google pour alimenter ses réponses, même si l’interface continue parfois d’afficher un lien vers Bing. Pour les SEO, cela signifie une double exigence : ne pas perdre de vue les fondamentaux du référencement sur Google, tout en conservant une vigilance sur Bing et les autres points d’accès à l’information.
Sur le plan opérationnel, il s’agit de renforcer la structuration des contenus, de surveiller la visibilité dans les réponses IA, d’ajuster les métriques et de penser la relation avec les éditeurs et partenaires sous un angle nouveau. L’objectif n’est pas de poursuivre une stratégie unique pour « plaire » à une IA, mais d’assurer que l’information produite est claire, traçable et utile — des qualités qui faciliteront naturellement sa réutilisation, que ce soit par un moteur de recherche ou par un assistant.
Gwenneg Marié, Head of SEO chez Hellowork
Gwenneg Marié a rejoint Hellowork en 2019 et y pilote aujourd’hui la stratégie SEO. Avant cela, il a travaillé chez MV Group et a débuté sa carrière en alternance, où il était en charge du référencement naturel, des campagnes SEA et du community management pour une marque française.
Articles connexes
- Comet, le navigateur d’intelligence artificielle de Perplexity est désormais disponible pour tout le monde
- Quelles sont les mécanismes de visibilité sur Internet en France ?
- Pourquoi la recherche basée sur l’IA n’est pas surestimée et sur quoi se concentrer maintenant
- Vos pages de connexion peuvent nuire à votre référencement
