Les spécialistes du référencement savent s’adapter aux évolutions des algorithmes ; l’optimisation pour les modèles de langage (LLM) doit donc être considérée comme une étape naturelle de cette évolution.
Pour faire le point sur les débats de l’industrie concernant les différences — ou les similitudes — entre SEO et GEO, j’ai échangé avec le vétéran du référencement Grant Simmons.
Grant cumule plus de 30 ans d’expérience dans l’accompagnement de marques et s’est attaché, durant des décennies, aux notions de sens, d’intention et d’autorité thématique bien avant que les LLM ne dominent les discussions.
Au cours de notre entretien, nous avons abordé l’alignement des signaux, ce que révèlent les récents brevets de Google sur les mécanismes de citation par les LLM, et les erreurs fréquentes des spécialistes quand il s’agit de concentration thématique.
« Nous évoquons souvent l’idée d’écrire pour les machines, alors qu’en réalité il s’agit d’écrire pour des besoins humains : tout part d’une requête ou d’un prompt. » – Grant Simmons (paraphrasé)
L’enregistrement intégral de l’entretien est inséré plus bas. Le texte qui suit en propose une synthèse approfondie et contextualisée.
Quand un excellent SEO converge avec un bon GEO
Lors de Google Search Live en décembre 2025, John Mueller a résumé la situation en affirmant que « le bon SEO est un bon GEO ». Cette remarque met en lumière l’important chevauchement entre optimisation pour les moteurs de recherche classiques et optimisation pour des surfaces pilotées par des modèles de langage.
Interrogé sur la distinction entre optimiser pour un moteur traditionnel et optimiser pour une machine (un LLM par exemple), Grant a confirmé une large zone de recouvrement tout en soulignant des différences de fonctionnement.
Pour lui, l’essentiel reste la même : il faut permettre à la machine de comprendre le sens profond du contenu afin de proposer la meilleure réponse possible. Autrement dit, la page doit rendre explicite l’intention recherchée et l’information qui la satisfait.
En revanche, la manière dont les systèmes évaluent et présentent cette information diverge. Historiquement, Google s’appuie sur un classement des pages et tient compte du contexte global du site. À l’inverse, les LLM privilégient souvent des extraits plus fins — ce que l’on peut appeler des passages — qui sont facilement extrayables et directement pertinents pour la requête.
Grant a expliqué : « Les LLM cherchent des parties de texte auto-suffisantes, des segments qui ont une valeur sémantique claire par rapport au prompt. C’est une différence structurelle importante. »
Il a également rappelé que le bon SEO a toujours été holistique : il implique la gestion des réseaux sociaux, des relations presse, du contenu et du message de marque. La visibilité et la cohérence de la marque sur différents canaux influencent la représentation par les LLM — une réalité que les meilleurs praticiens ont déjà intégrée dans leurs stratégies.
En résumé, selon Grant : « Oui, GEO et SEO convergent si l’on adopte des pratiques solides. Si on s’est contenté d’un référencement superficiel, la convergence est moins évidente. »
Un constat complémentaire : les spécialistes ayant une longue expérience traversent ces transitions avec moins de désorientation, car ils ont déjà vécu de nombreuses ruptures de paradigme. Les plus récents entrés dans la profession n’ont pas toujours ces points de comparaison historiques.
Pourquoi la notion de consensus est centrale pour les résultats fournis par les LLM
Nous avons ensuite abordé les récents brevets de Google dits de « continuation », qui décrivent deux systèmes distincts mais complémentaires. Vous trouverez une analyse de ces brevets via cet article : analyse sur LinkedIn.
Grant distingue deux composants principaux dans l’architecture décrite :
- Un moteur d’évaluation de la confiance de la réponse — que l’on peut appeler response confidence engine — qui vérifie si un passage peut être corroboré par d’autres sources sur le Web. Autrement dit, il mesure le degré de consensus.
- Un moteur de mise en lien — que Grant nomme linkifying engine — qui identifie au sein d’un passage de petits éléments (des « chunklets ») susceptibles d’être attribués à une source et donc d’être cités avec un lien.
La logique fonctionne en deux temps : d’abord on évalue si un contenu mérite d’être affiché en vérifiant s’il est corroboré par d’autres éléments disponibles en ligne. Ensuite, si un segment précis est jugé vérifiable et distinctif, il peut être associé à une source et recevoir une citation formelle.
Grant illustre le mécanisme ainsi : si un LLM renvoie un passage et qu’il existe une convergence de plusieurs sources qui confirment ce passage, le consensus facilite sa mise en avant. Mais pour qu’une phrase particulière bénéficie d’un lien vers votre site, elle doit non seulement être corroborée, mais aussi posséder une traçabilité suffisamment unique pour être attribuée à votre ressource.
Autrement dit, figurer dans la sortie d’un LLM est une chose ; obtenir une citation cliquable renvoyant explicitement vers votre contenu en est une autre, plus exigeante.
Le contenu « connaissance précieuse » l’emporte : ce qui capte l’attention des IA
Quel type de contenu est susceptible d’apparaître dans les réponses des LLM ? Grant parle de « golden knowledge » — du contenu qui apporte une valeur réellement distinctive.
Les caractéristiques fréquentes de ce type de contenu sont :
- Des données originales ou propriétaires (études, enquêtes, données clients) ;
- Des analyses ou positions argumentées, appuyées par des preuves ;
- Une perspective nouvelle mais vérifiable, c’est-à-dire qui trouve un écho chez d’autres sources.
Grant précise : « Il faut être unique et, en même temps, aligné avec un certain consensus sur le Web. Si vous publiez une idée totalement isolée sans preuve ou corroboration, le moteur de confiance ne la retiendra probablement pas. À l’inverse, répéter simplement ce que tout le monde dit ne suffit pas à émerger. »
Cette tension entre originalité et corroboration est la clé opérationnelle : le contenu doit apporter un angle, des données, ou une méthodologie propres, tout en restant ancré dans un réseau d’informations publiquement vérifiables.
Sur le plan de la rédaction, cela signifie privilégier des formats comme :
- Les études de cas détaillées ;
- Les rapports chiffrés et visualisations de données exclusives ;
- Les synthèses argumentées comparant plusieurs sources et expliquant pourquoi une interprétation est préférable ;
- Les guides méthodologiques explicitant des techniques originales et reproductibles.
Si l’objectif est d’être repérable par des surfaces pilotées par LLM, la finalité est de produire des éléments de texte courts, auto-portants et vérifiables qui peuvent être extraits sans perte de sens — exactement ce que le moteur d’extraction recherche.
Les erreurs majeures dans le ciblage thématique des pages
Lorsqu’on évoque la diversification thématique sur un site, Grant identifie une erreur récurrente : vouloir couvrir trop de sujets ou d’intentions sur une même page — c’est ce qu’il appelle le « drift » (dérive thématique).
La réflexion sur l’intention conduit à une conséquence simple mais puissante : chaque page a le droit d’exister si elle propose un parcours clair vers la satisfaction de l’utilisateur. En l’absence de focalisation, une page devient diffuse et perd sa capacité à répondre à une requête précise.
Beaucoup d’SEO héritent de sites existants et se concentrent sur des optimisations superficielles (balises titres, meta descriptions, headers) sans remettre en question l’architecture sémantique des pages. Grant remarque que le travail essentiel consiste souvent à :
- Clarifier l’intention principale de chaque page ;
- Supprimer ou déplacer les contenus périphériques qui créent de la confusion ;
- Regrouper en silos thématiques les éléments qui servent la même intention ;
- Mesurer la « path to satisfaction » : le chemin utilisateur qui va de la requête à la solution.
En pratique, une page qui mélange des explications générales, des offres produits, des actualités et des tutoriels perd nettement en capacité d’être citée par un LLM, car il devient difficile d’isoler un passage autonome et répondant précisément à un prompt.
Réduire cette dérive n’est pas seulement une bonne pratique SEO : c’est une condition préalable pour que des systèmes automatisés puissent extraire des preuves ou des passages citables. Une page claire, ciblée, structurée autour d’une intention précise favorise la création de « chunklets » exploitables par les moteurs de citation.
Une stratégie pratique recommandée pour 2026
Pour conclure notre échange, j’ai demandé à Grant ce qu’il conseille actuellement à ses clients. Sa recommandation se décline en priorités pragmatiques :
- Consolider ce qui fonctionne déjà : prioriser les gains immédiats via un SEO éprouvé plutôt que de tout miser sur des optimisations futuristes pour LLM.
- Renforcer l’autorité thématique (topical authority) par des contenus approfondis, basés sur des données et appuyés par des citations externes et des relations publiques numériques.
- Produire du contenu si qualitatif qu’il devient difficile à ignorer — par les moteurs, par les plateformes et par les médias spécialisés.
- Mettre en place des pratiques de citation et de traçabilité : structurer les sources, publier des données originales et faciliter leur indexation.
Grant synthétise : mieux vaut doubler ses efforts sur les fondamentaux du SEO tout en intégrant graduellement les éléments qui favorisent la visibilité sur les surfaces pilotées par LLM. À court terme, le trafic issu des LLM reste minoritaire ; à moyen terme, il pourra peser davantage. Construire une base solide maintenant permet de tirer parti de cette évolution.
Sa formule : créer des contenus d’une qualité telle que les LLM, les moteurs de recherche et les publications ne puissent raisonnablement les ignorer.
Ce que cela implique opérationnellement pour les équipes de contenu
Transformer ces principes en actions concrètes demande des adaptations dans les processus éditoriaux et techniques :
- Audit thématique : cartographier les intentions couvertes sur le site, repérer les pages avec dérive et définir des propriétaires de thématiques (silos).
- Prioriser les assets de données : identifier les sources internes pouvant être transformées en études ou visualisations et établir des routines de collecte.
- Structuration pour l’extraction : rédiger des paragraphes auto-suffisants (mini-résumés, définitions, étapes numérotées) qui peuvent être extraits comme réponses complètes.
- Sources et traçabilité : systématiser la citation des sources, utiliser des formats de données ouverts (CSV, JSON-LD) et s’assurer de leur accessibilité publique.
- Relations publiques numériques : amplifier les contenus originaux via des partenariats et des mentions tierces pour développer le consensus nécessaire.
Ces mesures visent à créer des signaux mesurables tant pour les moteurs traditionnels que pour les systèmes d’IA : clarté sémantique, preuves chiffrées, et réseau de corroboration.
Exemples concrets : comment passer d’une page diffuse à une page « citables par IA »
Voici un scénario type et les étapes pour le transformer :
Situation initiale : une page « guide » qui contient une introduction, une présentation produit, des témoignages, des actualités et une foire aux questions — résultat : aucun passage n’est parfaitement autonome.
Actions recommandées :
- Définir l’intention primaire (ex. : « comment configurer X ») et la conserver comme axe principal.
- Extraire les éléments non liés (actualités, promotions) et les relocaliser sur des pages dédiées.
- Créer un encadré en haut de page contenant un résumé en 3-4 phrases qui répond directement à la requête — ce bloc devient un candidat pour l’extraction.
- Ajouter des données propriétaires (temps moyens, taux de réussite, captures d’écran datées) pour renforcer l’unicité.
- Inclure des références externes corroborant les données et préciser les sources avec des liens accessibles.
Résultat attendu : une page structurée qui conserve sa valeur pour le visiteur humain et expose des « chunklets » exploitables par un LLM pour produire une réponse citée.
Impacts sur la mesure et les KPI
La montée des surfaces alimentées par LLM impacte la façon dont on mesure la performance :
- Les métriques classiques (position moyenne, clics, impressions) restent pertinentes pour le SEO traditionnel.
- Pour la visibilité sur les surfaces IA, il faut ajouter des indicateurs : mentions dans des réponses automatisées, occurrences de citation, trafic « référent non-cliquable » (impressions sans clic visible), et signaux de notoriété (mentions tierces).
- L’analyse qualitative des passages cités devient essentielle : quels extraits sont utilisés ? Sont-ils exacts ? Sont-ils correctement attribués ?
Ces nouveaux KPI imposent des routines de veille avancées (surveillance de la SERP enrichie, audits de citation, tracking des partages et des reprises de contenu) et une coordination plus étroite entre SEO, data teams et relations presse.
Questions fréquentes et recommandations pratiques
Quelles priorités opérationnelles retenir ? Voici des recommandations synthétiques basées sur l’entretien :
- Conserver le focus sur un SEO robuste tout en ajoutant des micro-formats destinés à l’extraction (résumés, Q&A, listes, définitions).
- Publier des données originales et accessibles publiquement pour maximiser l’attrait du contenu en tant que source « citée ».
- Veiller à la clarté de l’intention par page ; supprimer la dérive thématique qui affaiblit la citabilité.
- Encourager les mentions externes et les reprises par des partenaires crédibles afin d’établir le consensus.
- Documenter systématiquement les sources et la méthodologie pour faciliter la vérification par des systèmes algorithmiques.
Limitations et prudence
Il est important de garder une perspective mesurée sur l’impact immédiat des LLM : bien que leur influence croisse, la part de trafic réellement attribuable aux réponses générées par IA reste limitée à court terme. Par conséquent :
- Ne pas délaisser les fondamentaux du SEO dans l’attente d’une adoption massive des LLM.
- Éviter les pratiques qui visent uniquement à « tromper » les modèles (contenu sur-optimisé pour extraction sans valeur humaine) : ces approches sont fragiles et risquent d’être pénalisées.
- Maintenir un souci permanent de qualité et d’éthique informationnelle : la robustesse des sources et la transparence méthodologique sont des garanties de longévité.
En somme, la transition est graduelle et additive : la meilleure stratégie reste de renforcer la qualité éditoriale et la valeur des contenus tout en adaptant leur forme pour favoriser l’extractibilité et la vérifiabilité.
Remerciements à Grant Simmons pour ses éclairages partagés au cours de cet entretien.
Ressources complémentaires :
Image à la une : Shelley Walsh/Search Engine Journal
Articles connexes
- La version alpha ne surveille pas les modèles de langage (LLM)
- comparatif d’extensions pop-up pour la détection d’intention de sortie sur WordPress : 9 testées, 5 recommandées
- la première position sur Google subit une diminution de 35 % des clics avec les résumés AI
- comment pourraient opérer les algorithmes de recommandation tels que Google Discover
- évaluer les cas où les assistants d’IA et les moteurs de recherche divergent
- budget d’ancrage : comment Google restreint la taille des contenus pour l’IA Search
- Des extensions plus intelligentes, les avancées de l’IA et l’avenir de WordPress
- Analyse de 2,5 millions de liens internes met en lumière les pratiques réelles des référenceurs
