Ben DAVAKAN

Vous êtes au bon endroit pour concrétiser vos ambitions sur le web. Parlons-en dès maintenant.

entretien avec perplexity ai : comment fonctionne la recherche alimentée par l’IA

entretien avec perplexity ai : comment fonctionne la recherche alimentée par l’IA

entretien avec perplexity ai : comment fonctionne la recherche alimentée par l’IA

entretien avec perplexity ai : comment fonctionne la recherche alimentée par l’IA

Sommaire

J’ai récemment eu un échange avec Jesse Dwyer, responsable chez Perplexity, au sujet du lien entre SEO et la recherche par IA. Sa vision apporte des éléments concrets sur les priorités actuelles pour les éditeurs et les spécialistes du SEO, en particulier quand il s’agit de préparer du contenu pour des systèmes de réponse alimentés par IA.

Où en est la recherche par IA aujourd’hui ?

Un point essentiel souligné par Jesse est que la montée de la personnalisation transforme profondément les résultats.

« Si je dois résumer la principale distinction entre AEO et SEO, c’est que la situation n’est plus une logique à somme nulle. Deux personnes qui saisissent la même requête peuvent obtenir des réponses différentes sur une recherche commerciale, notamment lorsque l’outil IA intègre la mémoire personnelle de l’utilisateur dans sa fenêtre de contexte (par exemple Perplexity, ChatGPT).

Beaucoup de différences tiennent à l’architecture de l’index (ce qui explique pourquoi il existe un écart entre GEO et AEO). Pour autant, il est toujours pertinent de dire que la plupart des bonnes pratiques traditionnelles du SEO conservent leur utilité. »

La leçon à retenir de cet échange est que la visibilité dans les recherches n’est plus définie par un seul résultat universel. L’introduction du contexte personnel dans la génération de réponses signifie que deux utilisateurs interrogent le même terme et reçoivent potentiellement des réponses très différentes, issues de sources distinctes.

Concrètement, bien que l’infrastructure derrière ces systèmes repose encore largement sur des mécanismes d’indexation semblables à ceux des moteurs classiques, le SEO conserve un rôle fondamental : il contribue à déterminer si un contenu est éligible pour être retrouvé. Par exemple, Perplexity utilise des techniques apparentées au PageRank — une méthode fondée sur les liens pour évaluer la popularité et la pertinence des pages — ce qui indique certaines priorités à garder en tête pour les stratégies de référencement.

Cependant, comme nous le verrons, la nature des éléments réellement récupérés par un moteur IA diffère profondément de celle des moteurs traditionnels.

J’ai poursuivi la discussion avec cette question :

Donc, si je comprends bien (corrigez-moi si je me trompe) : la recherche classique tend à afficher de manière stable un ensemble de sites pour une requête donnée, alors que la recherche par IA, du fait de la nature contextuelle des conversations, va plus souvent produire des réponses personnalisées, variables selon l’utilisateur.

Jesse m’a confirmé :

« C’est bien ça. »

Indexation fragmentée : pourquoi la recherche par IA est distincte

Jesse a expliqué en détail les opérations internes qui permettent la génération d’une réponse dans un système de recherche par IA.

Il a notamment précisé :

« La grande différence technologique aujourd’hui repose sur l’opposition entre indexation de documents complets et traitement par “sous-documents”.

Les moteurs classiques indexent au niveau du document entier : on évalue une page, on lui attribue un score, puis on la stocke.

Quand un outil IA s’appuie sur cette architecture (par exemple une recherche via ChatGPT), il réalise essentiellement une requête traditionnelle, récupère les 10 à 50 meilleurs documents, puis demande au modèle de produire un résumé. C’est pourquoi on dit parfois que la recherche GPT ressemble à “plusieurs recherches Bing déguisées” — l’image, en substance, colle : le modèle synthétise des résultats issus d’un index classique.

Cette méthode correspond à une optimisation que l’on peut désigner par Generative Engine Optimization (GEO). L’approche “document entier” demeure donc essentiellement algorithmique, puisqu’elle dépend des mêmes scores de page que le SEO traditionnel. En revanche, l’approche native IA se situe au niveau du “sub-document processing”.

Plutôt que d’indexer des pages complètes, on indexe des fragments très granulaires (à ne pas confondre avec les “featured snippets” du SEO). Dans le jargon IA, un fragment fait environ 5–7 tokens, soit 2–4 mots en moyenne, mais transformés en vecteurs numériques par le transformeur qui sous-tend les LLM. Lors d’une requête sur un système à base de sous-documents, on ne récupère pas 50 documents ; on assemble environ 130 000 tokens des fragments les plus pertinents (approximativement 26 000 fragments) pour alimenter le modèle.

Ces chiffres servent d’illustration : le nombre réel de fragments est déterminé par la capacité de la fenêtre de contexte du LLM (actuellement autour de 130K tokens pour certaines architectures). L’objectif est de remplir intégralement cette fenêtre avec des informations directement pertinentes, car plus la fenêtre est saturée de données fiables, moins le modèle a de place pour “halluciner”.

Autrement dit, en saturant la fenêtre de contexte avec des fragments pertinents, le système réduit la créativité non souhaitée et produit des réponses davantage factuelles. C’est cette méthode par fragments qui pousse l’industrie vers ce que l’on nomme plus volontiers AEO (Answer Engine Optimization).

Évidemment, il s’agit d’une simplification pédagogique. La personnalisation qui introduit des écarts entre utilisateurs résulte du fait que le LLM peut intégrer dans la fenêtre de contexte toutes les informations connues sur le rechercheur — ce qui dépasse les simples profils utilisateur tels que ceux gérés par les moteurs historiques.

La différenciation compétitive d’une entreprise comme Perplexity, ou de tout acteur qui adopte le sub-document processing, tient à la couche technologique qui relie l’index et ces ~26K fragments. Par des méthodes telles que la modulation du calcul, la reformulation automatique des requêtes et l’emploi de modèles propriétaires opérant sur l’index, il devient possible d’améliorer la pertinence des fragments sélectionnés, ce qui est le levier principal pour obtenir des réponses plus riches et plus précises.

Accessoirement, cela explique aussi la valeur d’une API de recherche comme celle de Perplexity pour les développeurs : l’intégration d’un moteur qui opère sur des fragments change radicalement l’expérience de recherche intégrée à un produit. »

Jesse met en lumière deux modes d’indexation et de récupération distincts :

  • Indexation de documents complets : les pages sont récupérées et classées dans leur intégralité.
  • Indexation par fragments : le sens est capturé et restitué sous forme de segments très fins.

Dans le premier cas, l’IA synthétise des pages complètes issues d’une recherche classique. Dans le second, le système ne raisonne jamais sur des documents entiers mais assemble directement des extraits pertinents.

Jesse a également expliqué que la qualité des réponses dépend fortement de la saturation de la fenêtre de contexte : quand la récupération parvient à remplir cette fenêtre avec des fragments pertinents, le modèle dispose de peu d’espace pour inventer des faits — d’où une diminution des “hallucinations”.

Enfin, il a indiqué que des techniques avancées — telles que la modulation du calcul, la reformulation de requêtes et l’utilisation de modèles propriétaires appliqués à l’index — représentent des éléments différenciateurs pour sélectionner des fragments particulièrement pertinents.

Conséquences pratiques pour les éditeurs et les spécialistes du SEO

Que faut-il retenir pour adapter son travail éditorial et technique ? Voici des implications concrètes, sans prétendre lister tous les leviers possibles :

1. Structurer le contenu en micro-unités exploitables

Avec le passage au sub-document processing, les unités récupérées sont très courtes. Il devient donc utile de concevoir des textes qui proposent des réponses brèves, isolables et riches en informations : définitions courtes, phrases clés, listes claires, données chiffrées présentées de façon compacte. Autrement dit, favoriser des « micro-contenus » qui se prêtent bien à l’extraction comme fragment.

2. Augmenter la clarté factuelle et les sources

Lorsque le moteur assemble des fragments pour composer une réponse, la précision dépend de la qualité et de la traçabilité des extraits récupérés. Des passages bien sourcés, datés et contextualisés renforcent la confiance et la réutilisabilité de vos contenus dans des réponses automatisées. Les éléments structurés (tableaux, encadrés, métadonnées) sont particulièrement utiles.

3. Penser sémantique plutôt que mots-clés exacts

Les systèmes fondés sur des LLM et la recherche vectorielle se basent sur le sens plutôt que sur la seule correspondance lexicale. Travailler la profondeur sémantique d’un contenu — synonymes, paraphrases, entités liées — augmente les chances que des fragments pertinents émergent pour différentes formulations d’une même requête.

4. Soigner la structure HTML et la granularité

Des balises <h1>, <h2> et <p> bien organisées, ainsi que des listes et des encadrés, facilitent l’identification de fragments exploitables. Plus la structure d’une page module l’information en blocs logiques, plus il est aisé pour un index de fragmenter et réutiliser ces blocs.

5. Anticiper la personnalisation

Puisque la fenêtre de contexte peut intégrer des données personnelles ou contextuelles, il peut être pertinent d’offrir des contenus adaptables (par ex. sections alternatives, métadonnées contextuelles) pour couvrir différentes intentions utilisateurs et profils. Cela dit, la personnalisation renforce aussi l’importance du respect des règles de confidentialité et de transparence.

6. Ne pas abandonner les fondamentaux du SEO

Même si l’optimisation pour des fragments est nouvelle, des éléments classiques restent pertinents : qualité éditoriale, autorité du site, performance technique, liens entrants de qualité. Ces facteurs influencent toujours l’éligibilité d’un contenu dans l’index et la probabilité d’apparaître dans la sélection initiale de fragments.

Aspects techniques : embeddings, bases vectorielles et contexte

Pour mieux comprendre l’écosystème technique :

  • Embeddings : le texte est converti en vecteurs numériques qui capturent le sens ; ces vecteurs servent à comparer la similarité sémantique entre requête et fragments.
  • Bases vectorielles : pour stocker et rechercher efficacement des embeddings, on utilise des index vectoriels (par ex. FAISS, Milvus). Ces bases permettent de retrouver rapidement les fragments proches sémantiquement.
  • Fenêtre de contexte : capacité du LLM à prendre en compte un certain nombre de tokens. Saturer cette fenêtre avec des fragments pertinents limite les inventions erronées.
  • RAG (Retrieval-Augmented Generation) : approche combinant récupération de fragments et génération par modèle ; permet de produire des réponses à la fois factuelles et formulées naturellement.

Impacts sur la mesure de performance

La métrique de succès change aussi : on ne regarde plus uniquement le positionnement d’une page pour un mot-clé, mais la fréquence à laquelle des fragments issus de votre site sont sélectionnés et cités par des systèmes de réponse. Il devient utile d’analyser :

  • La réutilisation de passages (extraits cités) dans des réponses générées ;
  • La visibilité de micro-contenus dans des APIs ou widgets de réponse ;
  • L’engagement utilisateur après exposition à une réponse générée (clics, conversions) ;
  • La réputation et la confiance perçue des sources — les modèles privilégient souvent les sources fiables.

Quels sont les risques et les limites ?

Plusieurs enjeux doivent être pris en compte :

  • La personnalisation peut fragmenter l’audience et rendre plus complexe l’optimisation pour une audience « moyenne ». Il faut concevoir du contenu capable de s’adapter sans perdre en cohérence.
  • Les modèles peuvent perpétuer ou amplifier des erreurs si les fragments récupérés sont datés ou erronés. D’où l’exigence de maintenir des informations à jour et correctement sourcées.
  • La dépendance à des index propriétaires ou à des API externes peut augmenter la vulnérabilité stratégique des éditeurs ; la portabilité et l’interopérabilité des données deviennent des sujets importants.
  • Le risque d’« hallucination » existe toujours si la fenêtre de contexte n’est pas suffisamment alimentée de fragments fiables, ou si le système de récupération est mal calibré.

Éthique, transparence et confiance

Lorsque des réponses automatisées se basent sur des fragments de différentes sources, la transparence sur l’origine des informations est cruciale pour la confiance des utilisateurs. Les plateformes et les éditeurs doivent chercher à :

  • Fournir des indications claires sur la provenance des extraits ;
  • Mettre à jour régulièrement les données sensibles ;
  • Documenter les méthodes (dans la mesure du possible) utilisées pour extraire et réutiliser les fragments.

En synthèse : quoi retenir pour l’avenir du SEO et de l’AEO ?

La mutation vers une recherche par IA majoritairement fondée sur des fragments change la granularité du travail éditorial et technique. Pour rester pertinent :

  • Adaptez vos contenus pour qu’ils puissent être consommés et cités sous forme de **micro-extraits** ;
  • Soignez la structure et la clarté factuelle pour faciliter l’extraction et la réutilisation ;
  • Pensez en termes de sens et d’entités plutôt que de simples correspondances de mots-clés ;
  • Conservez les fondamentaux du SEO : autorité, performance, liens de qualité ;
  • Surveillez la provenance des fragments et la manière dont vos contenus sont réutilisés par des services d’IA.

Pour résumer la vision partagée par Jesse : l’industrie se dirige vers des moteurs qui exploitent des fragments minutieux afin de remplir les fenêtres de contexte des LLM. C’est cette capacité à sélectionner des fragments pertinents et à saturer la fenêtre de contexte avec des informations fiables qui réduit les hallucinations et améliore la qualité des réponses. Le travail des éditeurs et des experts en référencement consiste désormais à rendre leur contenu plus fragmentable, plus clair et plus crédible afin d’être efficacement repris dans ces nouvelles chaînes de valeur.

Image de couverture : Shutterstock / Summit Art Creations