Dans de nombreuses conversations récentes au sein du secteur, les avis divergent quant à l’ampleur réelle de l’impact de l’IA sur le SEO et sur la recherche en ligne. Selon le modèle économique d’une entreprise, les conséquences peuvent aller de négligeables à profondément perturbatrices : certaines plateformes de LLM ont déjà détourné des clics et, parfois, modifié les résultats commerciaux finaux.
Google reste toutefois l’acteur dominant et continue de renvoyer la majeure partie du trafic vers les sites web. Néanmoins, les volumes de visites se sont nettement contractés pour certains secteurs, en particulier pour les diffuseurs d’information et les sites dépendant de pages vues et de revenus publicitaires au clic.
Plusieurs spécialistes du SEO que j’ai rencontrés estiment que, malgré ces changements, Google ne va pas disparaître et que le travail quotidien du référencement reste essentiel. Pour approfondir ce sujet, je me suis entretenu avec Carolyn Shelby, entrepreneure du web depuis 1994 et consultante ayant collaboré avec des marques comme Disney, ESPN et Tribune Publishing.
Après trente années d’expérience, Carolyn a observé plusieurs vagues de disruption dans le secteur. Je lui ai demandé son avis direct : la recherche assistée par IA est-elle surmédiatisée ?
Selon elle, il est pertinent d’optimiser pour des parts de marché réduites dans des volumes énormes — même 1 % peut représenter des millions d’utilisateurs. Elle insiste sur l’importance des fondamentaux techniques et sur le fait qu’ignorer la recherche pilotée par IA serait une erreur stratégique. Elle avance également que Google module volontairement le rythme de son évolution.
L’économie du blogging se restructure
La montée en puissance des modèles de langage et des assistants conversationnels transforme en profondeur les modèles de monétisation basés sur la monétisation des pages vues : génération automatique de contenus, résumés instantanés et réponses directes réduisent les opportunités pour les sites qui vivaient des revenus publicitaires traditionnels, notamment via AdSense.
Carolyn résume la situation de manière lapidaire : “Il ne sera plus durable, à long terme, de créer des sites de contenu superficiel pour empiler de la publicité et espérer en vivre. Les créateurs passionnés continueront, car leur objectif n’est pas le profit ; mais ceux qui cherchent un revenu substantiel devront migrer vers des formats et plateformes où le modèle économique reste viable.”
Concrètement, cela signifie que les éditeurs et créateurs qui visaient uniquement le volume de trafic pour générer des micro-revenus verront leur rentabilité fondre. En revanche, les créateurs qui offrent de la valeur différenciée (formats vidéos, contenu expert, abonnements) conservent des leviers de monétisation.
Dans la pratique, plusieurs tendances se renforcent :
- Migration vers la vidéo : plateformes comme TikTok et YouTube captent de larges audiences et proposent des mécanismes de monétisation plus directs (partage d’audience, publicités natives, revenus d’abonnement, dons).
- Accroissement de l’importance des revenus d’abonnement et des contenus premium : newsletters payantes, communautés privées, contenus long format expertisés.
- Segmentation des audiences : niches moins concurrentielles peuvent offrir une valeur par utilisateur supérieure au simple volume.
Ce mouvement n’est pas transitoire. Nous sommes face à une réorganisation structurelle de la manière dont la valeur est produite et capturée sur internet. Des plateformes autrefois marginales gagnent en robustesse et peuvent même prospérer malgré les transformations de la recherche.
Plusieurs spécialistes du SEO m’ont indiqué que TikTok, par exemple, est devenu un terrain d’entrée accessible pour des startups ou des acteurs de niche cherchant à se constituer une audience engagée rapidement.
1 % d’un trillion : une part qui compte
Dans un récent échange, Carolyn a rappelé que les outils et plateformes d’IA représentent aujourd’hui une faible part du trafic total — parfois moins de 1 %. Ce pourcentage, sur le papier, paraît anecdotique ; mais appliqué à des chiffres colossaux, il devient significatif : 1 % d’un trillion équivaut à des dizaines de milliards d’impressions potentiellement capturables.
“Si je pouvais garantir, en me focalisant uniquement sur ChatGPT ou un autre assistant, de capter 1 % de ce trafic, j’y consacrerais mes efforts”, explique Carolyn. L’idée clé est de repenser la notion d’opportunité en termes relatifs : viser un faible pourcentage d’un marché gigantesque peut s’avérer plus rentable que lutter dans un océan concurrentiel.
Quelques implications pratiques :
- Ne pas sous-estimer les nouveaux canaux : même un flux de trafic réduit mais parfaitement ciblé peut offrir un taux de conversion supérieur.
- Rechercher des points d’entrée moins saturés : par exemple, optimiser pour Bing ou pour des plateformes d’IA spécialisées peut s’avérer plus rentable que de prétendre conquérir le haut du classement Google.
- Mesurer la valeur réelle d’un visiteur plutôt que le volume pur : un visiteur issu d’une requête vocale ou d’un assistant peut avoir une intention différente et se traduire par un meilleur retour sur investissement.
Carolyn conclut que parler d’“hype” pour l’IA revient à manquer une transformation paradigmatique : il s’agit d’un changement d’état des interactions numériques, pas d’un simple effet de mode.
Google module son rythme pour des raisons stratégiques
J’ai demandé à Carolyn si Google pouvait récupérer sa position dominante face à l’émergence des assistants basés sur les LLM. Sa réponse intègre une lecture stratégique liée aux enjeux juridiques et concurrentiels.
Selon elle, les procédures judiciaires — notamment les affaires contre la firme devant la Department of Justice aux États-Unis — créent des incitations comportementales. Pendant les périodes d’appel, Google a intérêt à montrer qu’il n’exerce pas un contrôle exclusif sur le marché et à laisser émerger des alternatives pour justifier qu’il n’est pas un monopole absolu.
Autrement dit, la société peut temporairement “freiner” certaines initiatives ou laisser la concurrence progresser pour renforcer sa défense juridique. Carolyn illustre cela par une métaphore : “C’est comme un conducteur qui ralentit en apercevant un radar, puis reprend de la vitesse une fois hors de vue.”
Un autre point que Carolyn met en avant est l’importance cruciale des données issues de Chrome. Les signaux comportementaux collectés via le navigateur constituent un avantage compétitif majeur pour Google : ils alimentent l’amélioration des algorithmes, des modèles de pertinence et des produits.
Privatiser ou contraindre le partage de ces données modifierait profondément la concurrence : “Si on retire les données liées à Chrome, on enlève un carburant essentiel à leur moteur”, résume Carolyn.
En synthèse, la stratégie de Google n’est pas nécessairement de freiner l’innovation : elle peut consister à caler le tempo public afin de naviguer dans un contexte réglementaire et concurrentiel complexe.
Le mode IA est là pour durer
Sur la question du “mode IA” — ces expériences intégrant des réponses générées par IA directement dans les pages de résultats — Carolyn anticipe une adoption progressive et durable. Elle pense que Google ne reviendra pas en arrière mais qu’il conduira les utilisateurs à s’habituer à ces nouvelles formes d’interaction.
Une constatation importante de Carolyn concerne l’habituation des utilisateurs : beaucoup ont des habitudes de recherche fondées sur des mots-clés et sur une navigation via des liens. Interroger un moteur comme on interrogerait un assistant conversationnel demande un changement d’interface mentale.
“Je me sens bizarre à poser à Google des questions formulées comme sur ChatGPT”, confie-t-elle. Mais l’adaptation est inévitable : l’effet de réseau et la dominance technologique permettent à Google de façonner progressivement les comportements d’usage.
Carolyn anticipe une phase d’itération : les utilisateurs testeront différentes formulations, corrigeront les erreurs, puis apprendront à extraire des réponses utiles des systèmes. Cette co-évolution homme-machine fait partie du processus d’adoption technologique.
Enfin, la perspective d’un assistant personnel centralisé dans le moteur de recherche n’est pas nouvelle : Google investit depuis longtemps pour être un point d’accès aux tâches quotidiennes. L’IA accélère simplement cette trajectoire.
Ce sur quoi les spécialistes du SEO doivent se concentrer maintenant
Lorsqu’on lui demande quelles priorités les professionnels du SEO devraient adopter, Carolyn revient sur un point souvent négligé : la stratégie marketing globale. Trop d’efforts techniques ont été dissociés d’un positionnement commercial clair.
Cependant, elle met en avant un impératif concret : la technique. Il ne s’agit pas seulement d’optimiser pour les moteurs traditionnels, mais de rendre le contenu lisible et accessible au niveau machine pour les différents LLM.
Plusieurs recommandations concrètes émergent de cet entretien et des pratiques observées :
- Rendre le contenu immédiatement accessible : certains modèles, comme ceux développés par Anthropic, ne récupèrent que le contenu visible au premier chargement (first view). Tout contenu encapsulé dans des onglets, des accordéons ou chargé dynamiquement risque d’être ignoré par ces systèmes.
- Prioriser la structure et la sémantique : balises HTML sémantiques, titres hiérarchisés, paragraphes clairs et balisage schema.org aident les modèles et les moteurs à comprendre le contexte et l’intention.
- Fournir des extraits clairs et concis : les premières lignes d’un article, les résumés structurés et les FAQ formatées facilitent l’extraction d’informations pertinentes par les assistants.
- Vérifier la crawlabilité et l’indexabilité : sitemaps, fichiers robots.txt, en-têtes HTTP corrects et évitement de contenus bloqués par JavaScript non rendu côté serveur.
- Optimiser la vitesse et l’expérience utilisateur : les modèles et moteurs tiennent compte des signaux UX pour jauger la qualité d’un site (temps de chargement, CLS, interactivité).
- Préparer des versions “première vue” explicites : vérifier que les informations essentielles sont présentes dans le DOM initial sans obligation de clic pour être visibles.
Carolyn résume : “Votre travail consiste à comprendre ce que les machines voient et à s’assurer que le message que vous souhaitez transmettre est effectivement présent dans ce que la machine lit. Si ce message est dissimulé, il faudra le rendre explicite.”
Checklist technique pour l’accessibilité aux LLMs et moteurs
Voici une liste pratique, extraite des conseils partagés et des bonnes pratiques courantes, que les équipes techniques et éditoriales peuvent appliquer :
- Rendu côté serveur (SSR) ou pré-rendu : garantir que le contenu essentiel apparaît dans le HTML initial.
- Balises sémantiques : utiliser h1–h6,
article,section,nav,asidepour structurer correctement l’information. - Structured data : implémenter
schema.org(Article, FAQ, HowTo, Product) pour faciliter l’extraction automatique. - Contenu au premier chargement : éviter d’enterrer les informations clés dans des éléments chargés après interaction.
- Sitemaps XML à jour et déclarés aux Search Consoles et aux indexeurs d’API pertinents.
- Contrôle des signaux UX : améliorer la vitesse (Core Web Vitals), la stabilité visuelle et la lisibilité mobile.
- Tests cross-LLM : simuler l’accès avec différents agents (ex. Anthropic, OpenAI, modèles propriétaires) pour observer ce qui est extrait.
- Monitoring des logs : analyser les requêtes des indexeurs et des crawlers pour détecter les éventuels blocages.
- Audit de contenu : prioriser le repositionnement des informations essentielles en haut des pages.
Stratégies éditoriales adaptées
Sur le plan du contenu, plusieurs approches peuvent améliorer la visibilité et la valeur :
- Contenu atomique et réutilisable : produire des unités d’information courtes et auto-suffisantes (définitions, résumés, listes) qui se prêtent bien à l’extraction automatique.
- Pages ressources consolidées : plutôt que multiplier les articles superficiels, créer des hubs thématiques profonds et structurés.
- Formats multi-canaux : combiner texte, vidéo, infographies et transcriptions optimisées pour capter des audiences selon leurs préférences.
- Signalement de l’expertise : mentionner les sources, qualifications et mises à jour pour augmenter la crédibilité perçue par les modèles et par les lecteurs humains.
L’avenir revient à ceux qui s’adaptent
Plutôt que de rejeter la recherche pilotée par IA comme un simple effet de mode, Carolyn voit une transformation profonde qui exige une réponse stratégique et opérationnelle. Les modèles économiques évoluent : la capacité à comprendre comment les machines accèdent, interprètent et utilisent votre contenu devient un facteur différenciant.
Trois enseignements principaux se dégagent :
- Ne pas ignorer les opportunités : même de petites parts de trafic sur des marchés gigantesques peuvent constituer des sources de revenus substantielles si elles sont bien monétisées.
- Faire converger technique et marketing : l’optimisation technique sans stratégie commerciale claire est insuffisante ; le contenu doit répondre à une intention mesurable et monétisable.
- Expérimenter et mesurer : mettre en place des tests (A/B, canaux alternatifs, formats) pour évaluer où l’effort produit le meilleur rendement.
En pratique, les organisations performantes seront celles qui :
- cartographieront précisément les canaux émergents (assistants, plateformes sociales, moteurs alternatifs) ;
- adapteront leurs pipelines de production de contenu pour générer des “premières vues” optimisées pour l’extraction ;
- mesureront la valeur réelle par visiteur et non le simple volume ;
- diversifieront les modèles de revenus au-delà de la publicité display.
Carolyn insiste : “Si vous négligez les opportunités offertes par les LLM et l’IA, vous vous privez d’avantages compétitifs réels.” Les professionnels qui sauront intégrer ces évolutions à leur pratique du SEO dessineront les contours de la prochaine génération de référencement.
Interview complète : https://youtu.be/y2ZVyKrBOW0?si=NVlUlWsC3hw7RaQ9
Entretien réalisé avec Carolyn Shelby dans le cadre de la série IMHO.
Ressources complémentaires :
Image mise en avant : Shelley Walsh
