James LePage, directeur de l’ingénierie en charge de l’IA chez Automattic et co-responsable de l’équipe WordPress dédiée à l’IA, a exposé une vision du futur qu’il qualifie de « Web Agentic AI », où les sites web cessent d’être de simples vitrines et deviennent des **sources de données** et des interfaces interactives. Dans ce modèle, la valeur distinctive que chaque site apporte risque d’être aplatie. Bien qu’il propose des pistes pour préserver la voix et l’identité des marques, l’issue pour les sites d’information, de services et les médias paraît, selon lui, potentiellement « complexe ».
Transition vers une autonomie guidée
Un des points centraux développés par LePage porte sur la montée graduelle de l’autonomie des agents et ses conséquences pour la présence en ligne. Sa perspective conserve un rôle humain, mais de nature plus stratégique : les humains resteraient en charge au niveau macro tandis que les agents géreraient les tâches détaillées et répétitives.
LePage précise :
« Plutôt que d’approuver chaque action, les utilisateurs définissent des directives et évaluent les résultats. »
Il décrit une trajectoire évolutive où les agents gagnent progressivement en latitude d’action, réduisant la supervision humaine au fil du temps. Cette évolution est structurée en trois paliers distincts.
Voici sa catégorisation des trois niveaux d’autonomie :
- Ce que nous connaissons aujourd’hui ressemble à une recherche web de type Perplexity mais avec davantage d’étapes : collecte de contenu, synthèse et restitution à l’utilisateur. L’humain demeure celui qui décide et agit.
- À moyen terme, l’utilisateur délègue des tâches précises avec des consignes explicites ; les agents peuvent accomplir des actions limitées comme des achats ou des réservations dans un périmètre autorisé.
- Plus loin dans le futur, les agents fonctionneront de manière plus autonome sur la base de directives permanentes, se rapprochant d’acteurs économiques à part entière.
Des sites transformés en flux de données
LePage décrit une inversion de contrôle : dans l’univers des agents, ce n’est plus forcément le site web qui impose la manière dont son contenu est présenté, mais l’agent visiteur qui sélectionne, interprète et reformule l’information selon sa propre logique et les besoins de son utilisateur. Résultat : l’expérience de marque peut disparaître au profit d’une représentation standardisée.
Il écrit :
« Lorsqu’un agent parcourt votre site web, votre emprise se réduit. L’agent extrait ce dont il a besoin puis s’en va. Il synthétise votre contenu selon sa propre logique et le présente à son utilisateur en fonction de ce qu’il a trouvé, pas nécessairement de la façon dont vous souhaiteriez être représenté.
Cela constitue un changement réel. Le créateur du contenu perd une part de contrôle sur la manière dont ce contenu est présenté et interprété. L’agent devient l’interface entre vous et l’utilisateur.
Votre site se transforme en une source de données plutôt qu’en une expérience.
Est-ce problématique ? LePage propose une réponse : renforcer les interactions et la personnalisation via l’IA, pour créer des expériences interactives et dynamiques impossibles à reproduire par un simple accès aux données statiques.
Ces observations prennent de l’importance si l’on considère la position de l’auteur : dirigeant technique chez Automattic et co-responsable de l’intégration de l’IA au cœur de WordPress.
Redéfinition des interactions sur les sites
Selon LePage, l’IA permettra d’offrir des expériences web de plus en plus personnalisées et immersives. Le site web deviendra une source de données enrichie, préparée et personnalisée pour atteindre des objectifs individuels, et l’IA déployée côté serveur deviendra un facteur clé de différenciation.
Il explique :
« Les humains qui visitent directement un site attendent encore une présentation visuelle. En réalité, ils exigeront probablement quelque chose de plus qu’un simple flux de texte. L’IA ouvre ces possibilités.
Les sites pourront proposer des expériences immersives et personnalisées sans requérir un développeur pour chaque variante : visualisations de données interactives, configurateurs de produits, parcours de contenu adaptés. Le standard de ce qu’une visite doit offrir monte en gamme.
Lorsque l’IA prend en charge la couche informationnelle, la couche expérientielle devient le vrai critère distinctif.
Autrement dit, si l’IA peut diffuser l’information partout (interface d’agent, outil de comparaison généré automatiquement, application synthétique interactive), l’information brute cesse d’être un avantage compétitif. Ce qui reste différenciant devient l’expérience elle‑même : fluidité, confiance, personnalisation et design.
Effets négatifs potentiels pour les sites
LePage précise que l’IA agentique est particulièrement adaptée aux sites commerciaux, capables d’effectuer des comparaisons, des vérifications de prix et des transactions rapides. En revanche, pour les sites à vocation informative, la situation est plus nuancée — il parle de « complexité » pour décrire les risques.
Cette « complexité » peut signifier, dans les faits, la perte d’une partie de la valeur ajoutée — lorsque la synthèse opérée par un agent efface la voix, le contexte et la légitimité d’une source. LePage illustre comment le contrôle de l’expérience glisse des mains des éditeurs vers celles des agents :
« Quand un agent visite votre site, ce contrôle diminue. L’agent extrait l’information nécessaire et poursuit sa route. Il synthétise votre contenu selon sa logique et le présente à son utilisateur d’après ce qu’il a trouvé, pas forcément comme vous le voudriez.
C’est un tournant. Celui qui produit le contenu perd une part de contrôle sur sa présentation et son interprétation. L’agent devient l’interface entre vous et l’utilisateur. Votre site web devient une source de données plutôt qu’une expérience.
Pour les médias et les services, c’est plus complexe. Votre marque, votre voix, votre perspective — les éléments qui vous distinguent — sont aplatis lorsque l’agent résume vos contenus aux côtés de ceux d’autres sources. »
Pour les sites d’information, l’expérience utilisateur constituait souvent la valeur ajoutée : la mise en contexte, l’analyse experte, l’angle éditorial. L’émergence d’un Web centré sur des agents risque de réduire cette valeur lorsque la restitution se fait sans passer par l’interface native du site — ce qui impacte la visibilité publicitaire, l’engagement et les revenus associés.
Une réponse : déployer son propre agent pour préserver la voix
Pour contrer l’écrasement de la marque, LePage imagine que les propriétaires de sites pourraient déployer leurs propres représentants automatiques : des agents qui connaissent profondément le contenu, les capacités et les règles d’une organisation et qui dialoguent avec les agents visiteurs. Ce modèle transformerait le Web en un réseau d’entités communicantes, chacune défendant l’intérêt de son mandant.
Il décrit ce paradigme ainsi :
« Si des agents doivent représenter votre site auprès des utilisateurs, vous aurez besoin d’un délégué qui vous représente auprès d’eux.
Plutôt que d’exposer du contenu statique et d’espérer que l’agent visiteur l’interprète correctement, le site pourrait proposer un représentant : un système qui comprend votre contenu, vos capacités, vos contraintes et vos préférences. Un interlocuteur capable d’échanger avec le agent visiteur, de répondre à ses questions, de présenter l’information de manière optimale et même de négocier.
Le Web évoluerait d’une collection de documents statiques vers un réseau d’agents interagissant, chacun défendant les intérêts de son principal. Le agent visiteur représente l’utilisateur ; le agent du site défend l’entité. Ils communiquent, échangent des informations et atteignent des résultats.
Cela n’est pas de la science-fiction : les protocoles se construisent. MCP est désormais sous la Linux Foundation avec le soutien d’Anthropic, OpenAI, Google, Microsoft et d’autres. Des initiatives comme Agent2Agent travaillent sur la communication entre agents. L’infrastructure pour ce type de Web émerge. »
L’idée d’un dialogue entre un agent de site et un agent utilisateur, où l’on échange capacités, contraintes et préférences pour définir la présentation, offre une voie possible pour préserver la singularité éditoriale. Si ce schéma se matérialise, il pourrait aider les éditeurs à rester des participants actifs plutôt que de simples pourvoyeurs de données.
Adaptation ou obsolescence : un choix crucial pour les éditeurs
LePage prévient que les acteurs qui s’adapteront à l’arrivée des agents et mettront en place des systèmes d’agent-à-agent seront en meilleure position pour tirer parti des nouveaux flux d’interaction, tandis que les autres deviendront des cibles de collecte automatisée.
Il résume la situation de façon sèche :
« Ceux qui n’évoluent pas resteront présents sur le Web, mais ils seront des données à gratter plutôt que des participants de la conversation. »
Dans cette vision, les sites marchands et de services peuvent préserver une valeur transactionnelle dans les échanges entre agents. Les sites informationnels, eux, risquent d’être désavantagés si l’on considère que l’utilisateur final ne clique plus, ne regarde plus les publicités et obtient la réponse consolidée directement via un agent.
Conséquences pratiques et stratégies recommandées
Pour aider les équipes éditoriales, techniques et commerciales à se préparer, voici une synthèse des implications pratiques et des approches possibles — neutres et pragmatiques — à considérer pour réduire les risques et saisir les opportunités :
- Investir dans l’identité informationnelle : structurer le contenu avec des métadonnées, des schémas Schema.org et des balises d’auteur pour renforcer la traçabilité et faciliter la réputation de source. L’utilisation de formats ouverts et d’API documentées permet à un site web de transmettre un contexte riche plutôt que de simples fragments textuels.
- Développer un représentatant automatisé : concevoir un agent propriétaire capable de parler au nom du site, d’exposer des règles éditoriales, des préférences et des limites. Ce représentant peut proposer des endpoints sécurisés (API) permettant d’échanger des réponses vérifiables et personnalisées.
- Protéger la valeur de l’expérience : transformer le parcours usager en produit différenciant — interfaces interactives, visualisations, outils de personnalisation — des éléments que l’agent visiteur aura du mal à reproduire sans engager le site lui‑même.
- Adopter des protocoles d’interopérabilité : suivre l’évolution des standards (MCP, Agent2Agent) et adopter les meilleures pratiques afin que votre agent puisse négocier et communiquer proprement avec d’autres agents.
- Monétisation et modèles hybrides : envisager des modèles d’accès payant, d’API premium ou d’authentification pour délivrer des réponses enrichies et préserver un échange de valeur lorsque cela est pertinent (par ex. accès à des analyses exclusives).
- Transparence et traçabilité : fournir des métadonnées de provenance, horodatage, versions et auteurs pour que les agents tiers et les utilisateurs puissent évaluer la fiabilité et la fraîcheur des informations.
- Mesurer et expérimenter : instrumenter les échanges (logs d’API, métriques d’usage) pour comprendre comment les agents consomment le contenu et ajuster les stratégies éditoriales et techniques sur la base de données réelles.
- Collaborer dans l’écosystème : rejoindre les groupes de normalisation, s’associer à d’autres éditeurs et fournisseurs technologiques pour peser sur les normes émergentes et défendre des mécanismes favorables aux créateurs de contenu.
Aspects techniques et normatifs à surveiller
Du point de vue technique, plusieurs chantiers sont à suivre de près :
- Standards de communication entre agents : l’avancée des protocoles comme MCP et Agent2Agent influencera la manière dont les agents s’authentifient, s’accordent sur des formats d’échange et négocient des contrats d’information.
- Identification et preuves cryptographiques : l’emploi de signatures numériques, de JWT et de mécanismes de preuve (attestations) pourrait permettre à un site d’affirmer l’origine et l’intégrité d’une réponse fournie par son agent.
- Contrôle d’accès et gouvernance des API : limiter l’accès aux endpoints sensibles, mettre en place des quotas et des accords de licence pour maîtriser l’exploitation industrielle du contenu.
- Interopérabilité des métadonnées : standardiser la manière dont sont exposées les préférences éditoriales, la portée d’utilisation et les conditions de redistribution pour que d’autres agents puissent respecter ces contraintes.
- Vie privée et conformité : garantir que les interactions entre agents respectent le RGPD et autres régulations, notamment pour les transactions impliquant des données personnelles.
Ce que cela signifie pour le référencement (SEO)
Du point de vue du référencement, l’émergence des agents impose une révision des priorités classiques :
- Prioriser la sémantique et l’entité : les agents se basent sur des modèles de compréhension ; structurer le contenu autour d’entités claires, d’extensions Schema et de données liées favorise une meilleure interprétation.
- Publier des endpoints d’API et des flux structurés : offrir des interfaces machine-readable (JSON-LD, API REST/GraphQL) avec des réponses complètes et contextualisées peut réduire les risques d’interprétation erronée.
- Soigner l’autorité et les signaux de confiance : les liens, les citations, les revues par les pairs, les mentions médiatiques et les signaux sociaux restent des éléments importants pour la crédibilité de la source, même quand des agents opèrent des synthèses.
- Optimiser la performance et l’accessibilité : un site web rapide, accessible et bien structuré est plus susceptible d’être correctement indexé et de fournir une meilleure base pour un agent propriétaire.
- Expérimenter les expériences immersives : créer des micro-interactions, des visualisations réactives et des parcours personnalisés qui deviennent des signatures reconnaissables par les utilisateurs humains et potentiellement valorisables par les agents.
Risques éthiques et impact sur l’écosystème
L’essor du Web piloté par des agents soulève aussi des questions éthiques et systémiques :
- Centralisation de l’accès : si un petit nombre d’acteurs contrôle l’infrastructure des agents, cela pourrait concentrer le pouvoir de sélection et de présentation de l’information.
- Biais et qualité : les modèles et algorithmes qui synthétisent du contenu peuvent introduire des biais ou réduire des narratifs complexes à des résumés simplistes, affectant la diversité des points de vue.
- Responsabilité éditoriale : qui est responsable en cas d’erreur ou de désinformation diffusée par un agent ? Les questions de traçabilité et de recours devront être clarifiées juridiquement.
- Économie de l’attention : la mutation des parcours utilisateur peut impacter les modèles publicitaires et les revenus d’édition, obligeant les acteurs à repenser leur modèle économique.
Scénarios plausibles sur les cinq prochaines années
Plusieurs trajectoires sont envisageables à moyen terme :
- Coexistence progressive : les agents augmenteront leur présence, mais les interactions humaines directes resteront essentielles pour certaines actions complexes, la fidélisation et l’expérience de marque.
- Adoption par paliers : les secteurs transactionnels (e-commerce, voyages, services) adopteront d’abord les agents pour automatiser les conversions, tandis que les médias et l’information chercheront des solutions hybrides (agent propriétaire, API payantes).
- Standardisation et régulation : l’émergence de standards techniques et de règles de gouvernance incitera à des pratiques plus transparentes et interopérables entre agents.
- Dialogue agent-à-agent : des interactions automatisées entre représentants de fournisseurs et représentants d’utilisateurs deviendront courantes pour négocier des services, des formats et des conditions d’usage.
Conclusion : penser en acteurs plutôt qu’en pages
La vision que propose James LePage appelle les propriétaires de sites à reconsidérer leur rôle : de producteurs de pages à participants d’un écosystème d’agents interopérables. Pour rester pertinents, les éditeurs devront investir dans la structuration des contenus, développer des représentants automatisés capables d’exprimer leur voix et leurs contraintes, et protéger la valeur de l’expérience que seules des interfaces humaines et conçues peuvent offrir.
Le passage à un Web dominé par des agents n’est pas inéluctablement destructeur ; il crée des opportunités techniques et commerciales pour qui saura anticiper, expérimenter et formaliser sa présence machine‑readable. En parallèle, la communauté technique et réglementaire devra veiller à équilibrer innovation, transparence et équité afin que l’écosystème reste pluriel et durable.
