Google poursuit son évolution habituelle : des ajustements réguliers visant à maintenir la meilleure expérience possible pour les utilisateurs. Cette démarche est continue et pragmatique, même si le paysage change avec l’arrivée des modèles linguistiques étendus et des assistants conversationnels génératifs.
Les modèles de langage (ou LLM pour Large Language Models) et les chatbots basés sur la IA sont désormais des éléments concrets du monde du SEO. Pour rester pertinent, Google adapte progressivement son interface afin de rapprocher les univers de la recherche classique et de la génération de réponses par IA. Il est toutefois important de rappeler que Google intègre des mécanismes d’IA dans ses algorithmes depuis de nombreuses années, bien avant l’essor public des LLM.
Dans le cadre de ma série IMHO, j’ai interrogé plusieurs spécialistes afin de recueillir leur regard. J’ai notamment échangé avec Ray Grieselhuber, PDG de Demand Sphere et organisateur de la Found Conference. Notre discussion a porté sur la tension entre la recherche « traditionnelle » et la recherche assistée par IA, l’importance des données de référence, le rôle du schema et les conséquences pour le SEO.
« Il n’y a plus vraiment aujourd’hui une opposition nette entre recherche traditionnelle et recherche pilotée par l’IA. Désormais, tout opère à travers des mécanismes d’IA. »
L’entretien intégral figure à la fin de cet article.
Pourquoi les données d’ancrage (grounding) pèsent plus que le modèle lui‑même
Notre échange a débuté à partir d’un récent message de Ray sur LinkedIn, où il insistait sur l’importance des données :
« Ce sont les données qui servent de base qui comptent, bien davantage que le modèle à proprement parler. Les modèles seront entraînés pour produire des résultats, mais, comme toujours, ce sont l’index et les ensembles de données qui constituent l’enjeu majeur. »
Je lui ai demandé d’expliquer plus en détail pourquoi les données de référence sont cruciales. Il a répondu que, sauf révolution fondamentale dans le fonctionnement des LLM, les limites de contexte persisteront : les modèles n’offriront pas une fenêtre contextuelle infinie. Pour disposer d’informations à jour et véritablement référencées, il faut s’appuyer sur des données indexées qui proviennent de sources externes.
Plus tôt dans l’année, Ray et son équipe ont étudié les schémas de citation de ChatGPT et ont comparé les résultats du chatbot avec ceux retournés par Google et Bing. Leur analyse montre que les réponses de ChatGPT coïncident avec les résultats de Google dans environ 50 % des cas, alors que le recoupement n’était que de 15 à 20 % avec Bing.
« On sait que Bing entretient des liens historiques avec OpenAI », a précisé Ray, « mais Bing ne dispose pas de la même ampleur de données, ni de l’étendue d’index que possède Google. À terme, on retrouve forcément les données issues de Google, d’une façon ou d’une autre. »
Pour Ray, c’est bien l’index qui fait la différence : « c’est l’index qui est la vraie valeur. Google conserve un avantage considérable en termes de volume de données et de couverture. »
Lorsque Ray a présenté ces résultats à Brighton SEO en avril, les réactions ont été mixtes. Certains participants semblaient surpris, voire indignés, à l’idée qu’OpenAI puisse s’appuyer sur des sorties issues des résultats de Google. Une partie de cette réaction s’explique sans doute par l’envie de penser que l’IA rendra Google obsolète. En réalité, les ensembles de données de Google demeurent centraux pour la plupart des sources de référencement et d’ancrage.
Toute la recherche est désormais traversée par l’intelligence artificielle
Ray a partagé une réflexion intéressante au sujet du comportement des utilisateurs :
« Les humains effectuent des recherches depuis toujours. Ce qui change, ce sont les interfaces, les comportements et les outils. En considérant la recherche comme un comportement primaire — le fait d’essayer de trouver une information — on évite de perdre du temps à débattre de vocabulaire. »
Je lui ai demandé où, selon lui, la communauté du SEO se trompe lorsqu’elle aborde la visibilité dans les environnements LLM ou basés sur la génération de réponses. Ray estime que l’industrie a tendance à osciller entre deux extrêmes :
soit on proclame la mort d’un canal (« le SEO est mort »), soit on bascule vers un enthousiasme excessif pour la nouveauté (« oubliez tout ce que vous saviez, adoptez seulement la nouvelle méthode »). Cette vision binaire nuit à une analyse pragmatique.
Pour lui, l’essentiel reste le comportement humain : attirer l’attention des personnes via leurs actes de recherche. C’est ce point fixe qu’un marketeur doit comprendre et optimiser.
« La question majeure est de savoir quel type d’expérience va capter et organiser l’attention humaine en face de l’offre que vous proposez », a-t-il ajouté.
« Il n’y a plus vraiment d’opposition entre recherche traditionnelle et recherche pilotée par l’IA. Google a ouvert la voie à ce type de recherche il y a plus de dix ans. Ils l’ont pratiqué depuis une décennie, et maintenant beaucoup de gens découvrent que cela correspond à de l’IA. »
En résumé, Ray insiste sur la permanence du facteur humain : le comportement des utilisateurs évolue lentement, alors que les expériences et les interfaces changent plus rapidement. Comprendre ces comportements est plus important que de s’attacher à des buzzwords.
Quel rôle joue le schema pour la visibilité auprès des LLM
J’ai ensuite abordé la question du schema (balises structurées) : dans quelle mesure ces balises influencent-elles directement la visibilité auprès des LLM ? La réponse, selon Ray, est nuancée.
Les LLM ne « lisent » pas le schema comme un moteur de recherche le ferait pendant leur phase d’entraînement initiale. En revanche, lorsque les modèles s’appuient sur des résultats de recherche externes pour ancrer leurs réponses (processus de retrieval-augmented generation, ou RAG), des éléments structurés peuvent jouer un rôle d’indice dans la couche de récupération.
Ray souligne aussi que Google a, au fil du temps, façonné la manière dont le web s’optimise sémantiquement. L’exemple des Core Web Vitals montre comment Google a poussé les sites à améliorer leurs performances pour réduire le coût de crawl — et l’adoption généralisée du schema est une extension de cette logique : en structurant le contenu, les sites aident les moteurs à créer une couche sémantique plus riche.
« Google a utilisé les Core Web Vitals pour inciter le web à s’optimiser lui‑même, afin de limiter ses propres coûts de crawling. Ils ont suivi une démarche analogue pour établir une couche sémantique qui enrichit les résultats. »
Autrement dit, le schema fonctionne davantage comme un signal ou un indice que comme une garantie de positionnement direct dans les sorties des LLM. La question que doivent se poser les praticiens du SEO n’est donc pas simplement « est‑ce que le schema influence les LLM? », mais plutôt « comment l’usage de données structurées modifie le comportement des utilisateurs et facilite la découverte et la compréhension de l’information? »
En pratique, cela signifie que le schema aide à rendre un contenu plus interprétable et plus exploitable par les couches de récupération et les moteurs, et qu’il contribue indirectement à la capacité d’un document à servir de source d’ancrage fiable.
Attirer l’attention humaine en s’appuyant sur le comportement de recherche
La pensée binaire — « le SEO est mort » ou « les LLM remplacent le SEO » — occulte une vérité simple : le besoin humain d’accéder rapidement à une information pertinente reste inchangé. Les outils évoluent, mais la finalité du geste de rechercher est la même.
Ray considère que l’enjeu principal du SEO est de mieux capter l’attention humaine en comprenant comment les gens interagissent avec les interfaces de recherche. Cela suppose un déplacement stratégique des tactiques purement techniques vers des approches plus centrées sur l’expérience utilisateur et le marketing de contenu.
« Je crois que beaucoup seront contraints de devenir les marketeurs qu’ils auraient dû être depuis le départ, en plaçant l’utilisateur au centre plutôt qu’en négligeant son parcours. »
Cette transition impose plusieurs changements concrets pour les équipes en charge de la visibilité :
- Mesurer et analyser le comportement de recherche spécifique à son audience (requêtes, intent, parcours de découverte).
- Expérimenter avec ses propres données clients pour valider des hypothèses : tests A/B, analyses de funnel, feedbacks directs.
- Produire des contenus qui répondent véritablement aux besoins identifiés, plutôt que de viser uniquement des signaux SEO techniques.
- Penser l’expérience au sens large : réponse instantanée, formats adaptés (extraits structurés, FAQ, articles longs), et intégration des contenus dans les parcours multi‑interfaces (mobile, assistant vocal, chatbots).
Ray met l’accent sur l’importance d’une approche expérimentale et centrée sur les données propriétaires : les études larges donnent une direction, mais les décisions d’exécution doivent se fonder sur l’observation directe des comportements de vos propres visiteurs.
« Si vous vendez des billets d’avion, peu importe la façon dont les gens achètent de la nourriture pour chiens ; chaque vertical a ses propres règles et ses propres signaux. »
En conséquence, les professionnels du SEO qui réussiront seront ceux qui sauront fusionner compétences techniques, sens du marketing et curiosité pour les données utilisateurs, afin de créer des expériences pertinentes quelle que soit l’interface de recherche utilisée par l’internaute.
Un secteur construit pour s’adapter
Malgré la nature disruptive des récents développements, Ray perçoit surtout des opportunités. Les spécialistes du SEO sont par vocation des chercheurs et des bâtisseurs, ce qui leur confère une capacité d’adaptation élevée.
« Nous sommes par nature des chercheurs et des constructeurs ; c’est pourquoi notre secteur accepte le changement plus rapidement que bien d’autres. »
La réussite dans un univers où la recherche est de plus en plus assistée par des couches d’IA ne dépendra pas uniquement de la maîtrise d’outils récents ou de la course aux nouvelles techniques. Elle résultera de la capacité à décrypter les besoins des utilisateurs, à proposer des expériences cohérentes et à délivrer une valeur réelle tout au long du parcours.
Ray évoque également un phénomène d’« épuisement de l’IA » chez certains utilisateurs : après une période d’enthousiasme, certains retourneront naturellement à des habitudes de recherche plus classiques, tandis que d’autres privilégieront les assistants génératifs. Dans les faits, les internautes basculeront entre plusieurs interfaces ; les équipes de visibilité devront donc être présentes et pertinentes sur ces différents points de contact.
« Peu importe l’étiquette qu’on donne à ces interfaces. L’essentiel reste d’attirer l’attention via les comportements de recherche. »
En d’autres termes, le contexte évolue, mais les compétences fondamentales restent valables : compréhension des intentions, optimisation de l’expérience, qualité du contenu, et capacité à tester et apprendre rapidement.
L’entretien complet avec Ray Grieselhuber est intégré ci‑dessous pour celles et ceux qui souhaitent approfondir les points abordés :
Ressources complémentaires :
Image en vedette : Shelley Walsh/Search Engine Journal
Articles connexes
- digital rise 2025 : trois jours consacrés au marketing numérique à l’ère des grands modèles de langage !
- tout le monde est en accord, à l’exception de Google
- Qu’est-ce qu’un développeur web ?
- Google vs ChatGPT : l’intelligence artificielle peut-elle détrôner la recherche traditionnelle ?
- Rumeurs SEO : géolocalisation, pages événementielles, noindex et Llms.txt
- ChatGPT juge un site à partir de seulement quelques pages Autres options : – ChatGPT évalue un site sur la base de quelques pages seulement – ChatGPT se fait une opinion d’un site d’après quelques pages seulement
- Pourquoi WooCommerce est lent et comment l’accélérer avec une pile serveur optimisée
- l’intelligence artificielle révolutionne les recherches locales plus vite que vous ne l’imaginez
