Ben DAVAKAN

Vous êtes au bon endroit pour concrétiser vos ambitions sur le web. Parlons-en dès maintenant.

cinq questions concernant le référencement et l’intelligence artificielle, en compagnie d’Olivier Duffez

cinq questions concernant le référencement et l’intelligence artificielle, en compagnie d’Olivier Duffez

cinq questions concernant le référencement et l’intelligence artificielle, en compagnie d’Olivier Duffez

cinq questions concernant le référencement et l’intelligence artificielle, en compagnie d’Olivier Duffez

Sommaire

On annonce régulièrement la disparition du SEO — ou au moins sa mutation profonde. De la suppression du PageRank public aux pénalités de Penguin, sans oublier l’essor des réseaux sociaux ou de la recherche vocale, de nombreuses ruptures ont incité les professionnels à prévoir la fin du référencement naturel. Aujourd’hui, l’émergence des IA génératives et des assistants conversationnels remet en question le modèle des « dix liens bleus ». Cela constitue-t‑il vraiment une rupture majeure pour la pratique du SEO, ou s’agit‑il d’une nouvelle étape d’adaptation ?

Pour explorer cette question, nous avons interrogé Olivier Duffez, consultant en référencement depuis plus de 25 ans, fondateur de WebRankInfo et cofondateur de MyRankingMetrics, une plateforme d’outils d’audit et de suivi SEO. Notre échange porte sur cinq sujets actuels : l’émergence du GEO, le fichier LLMs.txt, les requêtes fan-out, le poids des mentions de marque et l’arrivée de ChatGPT Atlas. Ci‑dessous, une synthèse enrichie et commentée de ces perspectives.

1. Le GEO : simple évolution ou discipline distincte ?

Pour Olivier Duffez, le GEO « n’est pas un nouveau paradigme ». Il s’inscrit plutôt comme une spécialisation au sein du SEO, intégrant toutefois « un ensemble d’éléments nouveaux ». Autrement dit, les principes fondamentaux du référencement naturel demeurent, même si certaines pratiques se renforcent ou se transforment quand on vise l’indexation et l’usage par des systèmes d’IA.

Certaines équipes risquent de se laisser séduire par le battage médiatique autour du GEO. Mais si l’on abandonne les fondamentaux du SEO, les performances Google s’en ressentiront et le GEO n’y gagnera rien.

Concrètement, l’approche GEO (pour « Generative Engine Optimization » ou optimisation pour moteurs génératifs) implique de prendre en compte quelques méthodes et formats plus particulièrement utiles pour les modèles de langage et les systèmes de réponse : le chunking (découpage en blocs thématiques), la préparation pour les requêtes fan-out, ainsi qu’une attention accrue aux calculs d’embeddings. Ces techniques facilitent la compréhension et la synthèse par les LLM.

En pratique, adopter une démarche orientée GEO signifie repenser la structuration des contenus : balisage sémantique, titres clairs, paragraphes autonomes et sections qui répondent précisément à des questions. Ce n’est pas une remise à zéro des règles du référencement naturel, mais une mise à jour des formats et des micro‑structures de contenu pour une meilleure lisibilité par les agents automatisés.

2. Le fichier LLMs.txt : outil prometteur ou gadget pour l’instant ?

Depuis plusieurs mois, l’idée d’un fichier llms.txt circule dans les cercles SEO. Présenté parfois comme l’équivalent du robots.txt pour les moteurs d’IA, ce fichier vise à communiquer des informations synthétiques aux grands modèles de langage. Olivier Duffez nuancera rapidement : « Le fichier llms.txt n’a pas la même vocation que le robots.txt. Il n’indique pas ce qui est autorisé ou interdit au crawl ; son but est de fournir des repères condensés et lisibles pour les LLM. »

Sur son utilité réelle, l’expert est sans détour : « Pour l’instant, il ne sert à rien. » Après plus d’un an d’expérimentation, aucun acteur majeur de l’écosystème IA n’a officiellement adopté ce standard. Plusieurs raisons expliquent cette absence d’adhésion :

  • Les grands modèles s’appuient avant tout sur leurs propres pipelines de collecte et d’ingestion, qui privilégient le crawl classique, les indexations propriétaires et les fournisseurs de données partenaires.
  • Le format et la gouvernance du llms.txt restent flous : qui fixe les conventions ? Comment garantir l’interprétation fiable des directives ?
  • Les plateformes d’indexation et les services cloud des géants de l’IA mettent en place leurs propres filtres et métadonnées, rendant l’adoption d’un fichier universel moins urgente.

Malgré ces réserves, le llms.txt n’est pas condamnable d’emblée : il représente une tentative de normalisation utile si elle venait à être adoptée par des acteurs influents. À court terme, toutefois, les alternatives existantes (sitemaps, balises meta, données structurées Schema.org, signaux techniques comme le Robots) restent les leviers les plus fiables pour piloter la manière dont vos contenus sont perçus par des systèmes automatisés.

3. Requêtes fan-out : comprendre le processus et adapter ses pages

Les requêtes fan-out représentent une manière différente de traiter une requête : au lieu d’une unique recherche linéaire, l’interrogation est fragmentée en plusieurs sous-requêtes envoyées en parallèle à divers modules ou sources. Les réponses partielles sont ensuite agrégées et synthétisées pour produire une réponse finale cohérente. Ce mode de fonctionnement met l’accent sur la granularité et la complémentarité des contenus.

Olivier Duffez explique : « Quand on optimise une page, que ce soit pour le SEO traditionnel ou pour le GEO, il faut se concentrer sur l’intention de recherche. Cela inclut d’anticiper les principales questions que l’utilisateur pourrait poser. »

Plutôt que de s’acharner sur un seul mot‑clé — approche dépassée selon lui depuis une décennie — il recommande d’identifier « un ensemble de sous-requêtes associées ou dérivées de cette intention ». Par exemple, pour une requête liée à “installer une pompe à chaleur”, les sous-requêtes pourraient couvrir : coût moyen, durée des travaux, aides financières, comparatif types d’équipements, et checklist d’entretien. Chaque sous‑requête constitue un bloc d’information susceptible d’être sollicité par une étape du fan‑out.

Deux stratégies s’offrent alors :

  1. Consolider la page principale pour répondre directement à chaque sous‑requête en sections distinctes, bien balisées, lisibles hors contexte (chunking).
  2. Délivrer des extraits sur la page qui renvoient vers des ressources dédiées (pages internes) lorsque une sous‑requête nécessite un traitement détaillé.

Sur le plan technique, il est utile de :

  • Utiliser des titres Hn explicites et des balises schema adaptées pour marquer le type de réponse (HowTo, FAQ, Article, Product).
  • Structurer les paragraphes courts et autonomes (chunks) qui peuvent être extraits et cités sans perdre le sens.
  • Maintenir une navigation interne claire pour que l’agrégateur (ou l’IA) puisse diriger l’utilisateur vers la ressource la plus pertinente.

Ces pratiques facilitent l’intégration des contenus dans des réponses agrégées et améliorent la probabilité d’apparaître en tant que source citée ou document référent pour une sous‑partie d’une requête plus large.

4. Mentions de marque : le référenceur devient‑il gestionnaire d’image ?

Lors du dernier SEO Summit, plusieurs spécialistes ont insisté sur l’importance des mentions de marque, au‑delà des simples backlinks ou citations formelles. Cette évolution repousse partiellement le périmètre du SEO vers des compétences traditionnellement rattachées au marketing et aux relations publiques.

Olivier Duffez observe que la présence de la marque dans des contextes crédibles devient un signal de confiance pour les systèmes automatisés et les algorithmes qui évaluent la réputation d’une entité. Voici cinq axes concrets pour renforcer ces signaux, présentés de façon opérationnelle et neutre :

  1. Produire des contenus à forte valeur ajoutée : études originales, dossiers complets, interviews ou formats longs susceptibles d’être repris ou cités par des médias et des spécialistes. Ces contenus génèrent naturellement des mentions de marque.
  2. Activer les relations presse et les partenariats d’influence : travailler avec des journalistes et des contributeurs spécialisés pour obtenir des citations qualitatives dans des contextes pertinents (articles, podcasts, tribunes).
  3. Optimiser la présence sur les plateformes à forte autorité : soigner sa fiche sur Wikipédia (lorsque cela est légitime), inscrire la structure dans des bases de données professionnelles et sectorielles, et vérifier la cohérence des profiles sur les annuaires reconnus.
  4. Favoriser les avis et retours authentiques : inciter les utilisateurs à laisser des avis honnêtes sur Google, sur les plateformes spécialisées ou sur des forums, et répondre de manière transparente aux retours afin d’améliorer la crédibilité publique.
  5. Assurer la cohérence des signaux : nom commercial, storytelling, et les éléments E‑E‑A‑T (Expérience, Expertise, Authoritativeness, Trustworthiness) doivent être alignés pour faciliter la reconnaissance algorithmique et humaine.

Le point clé est que ces actions reposent sur la construction d’une réputation vérifiable et d’une autorité thématique. Elles s’articulent avec les méthodes classiques du SEO (contenu, technique, netlinking) mais demandent un dialogue plus intense avec les équipes de communication, juridique et produit.

5. ChatGPT Atlas et la navigation IA : quels impacts pour le SEO ?

Fin octobre, OpenAI a annoncé ChatGPT Atlas, un navigateur intégrant profondément un modèle conversationnel pour assister la navigation et la recherche d’informations. Cette avancée pourrait transformer la façon dont les internautes interagissent avec les contenus en ligne — et par ricochet, la manière dont les référenceurs conçoivent les pages.

Olivier Duffez anticipe que l’IA conversationnelle « sera intégrée de manière ubiquitaire dans de nombreuses activités, y compris la consultation de sites web ». Dans ce contexte, deux implications majeures se dégagent :

  • Il faudra assurer une communication claire et exploitable entre les pages web et les agents automatisés : balisage sémantique, contenus découpés en unités réutilisables et métadonnées explicites deviennent cruciaux.
  • La proportion d’« utilisateurs » automatisés (robots, assistants, agents IA) accédant aux ressources va croître ; il faut donc optimiser l’accessibilité technique et informationnelle pour ces clients non humains.

Il convient d’anticiper qu’une part significative du trafic sur un site proviendra de machines. Les fondamentaux du SEO restent applicables : par exemple, limiter l’usage excessif de JavaScript coté client, car certains crawlers d’OpenAI ne l’exécutent pas complètement pour l’instant.

Concrètement, pour se préparer à des navigateurs comme ChatGPT Atlas, les équipes techniques et éditoriales doivent privilégier :

  • Le rendu côté serveur (server‑side rendering) ou des solutions hybrides qui garantissent la présence du contenu dans le HTML initial.
  • Des extraits textuels courts, précis et autonomes (chunks) susceptibles d’être insérés dans une réponse synthétique.
  • Des métadonnées et balises schema claires pour contextualiser les pages (FAQ, HowTo, Product, Review).
  • La gestion propre des liens canoniques et des versions de pages afin d’éviter la dispersion des signaux quand un agent agrège des fragments.

Au‑delà de la technique, il faudra aussi composer avec des limites inhérentes aux systèmes de synthèse : risques d’hallucinations, besoin de citations fiables et de traçabilité des sources. Les acteurs qui fournissent des contenus bien sourcés et traçables auront plus de chances d’être cités correctement dans des réponses automatisées.

6. Conséquences opérationnelles et recommandations pratiques

À partir des points précédents, voici une synthèse des conséquences opérationnelles pour les responsables de site et des orientations pratiques, formulées de manière neutre et actionnable :

Technique :

  • Prioriser le rendu côté serveur ou le pré‑rendu des pages importantes pour garantir leur lisibilité par les crawlers et par les agents d’indexation.
  • Limiter la dépendance à des scripts qui masquent le texte essentiel et ralentissent l’accès à l’information.
  • Vérifier la conformité des balises meta, des sitemaps et des données structurées pour faciliter l’extraction et l’interprétation par des pipelines automatiques.

Contenu :

  • Structurer les pages en « chunks » thématiques ; créer des questions‑réponses et des résumés qui peuvent être repris hors contexte.
  • Préparer des extraits factuels et sourcés — par exemple un encadré « résumé » ou « points clés » — utiles aux agents qui génèrent des réponses.
  • Élargir la perspective de mots‑clés à un champ d’intentions et de sous‑requêtes, et mesurer la couverture de ces micro‑intentions.

Visibilité & réputation :

  • Renforcer les mentions de marque dans des contextes de qualité : médias reconnus, bases de données professionnelles, plateformes expertes et avis utilisateurs.
  • Suivre les signaux E‑E‑A‑T et documenter l’expertise derrière les contenus (auteurs, références, études, sources primaires).

Gouvernance :

  • Coordonner SEO, contenu, RP et produit pour aligner les messages et les formats avec les nouvelles exigences d’indexation automatisée.
  • Surveiller l’évolution des standards (par ex. l’apparition d’un usage effectif du llms.txt) et adapter les règles internes en conséquence.

7. Limites, risques et questions encore ouvertes

Plusieurs interrogations demeurent autour de l’intégration croissante des IA dans la recherche et la navigation :

  • Quelle sera la gouvernance et la transparence des sources citées par les modèles ? Les agrégations automatisées indiqueront‑elles toujours l’origine des informations ?
  • Comment mesurer l’impact réel sur le trafic organique quand une part des réponses ne renvoie pas systématiquement vers la page d’origine (ou le fait après synthèse) ?
  • Les formats privilégiés par les modèles (résumés, extraits courts) peuvent‑ils dégrader la visibilité de contenus longs et approfondis ?

Ces incertitudes appellent à une approche prudente : garder les fondamentaux du SEO tout en expérimentant des formats et des architectures adaptées aux moteurs génératifs. Les acteurs qui s’organisent pour produire des contenus structurés, sourcés et techniquement accessibles auront un avantage dans un paysage hybride où coexistent trafics humains et machines.

Picture of Olivier Duffez

Olivier Duffez, expert en SEO

Consultant en référencement naturel depuis plus de 25 ans, Olivier Duffez est le fondateur du site WebRankInfo. Il a également cofondé la plateforme My Ranking Metrics, proposant des outils d’audit et de suivi pour les équipes SEO.