Alban Renard, responsable expertise et innovation
Alban Renard dirige les expertises et l’innovation chez CyberCité, une agence spécialisée en SEO, SEA, IA, data analytics et content marketing. Fort d’une carrière de près de vingt ans dans le marketing digital et le search, il a accompagné des acteurs majeurs (Air France, Decathlon, SFR, King Jouet…) et intervient comme conférencier sur les enjeux d’innovation, d’intelligence artificielle et des transformations du search marketing.
</div>
</div>
</div>
Le mythe de la disparition du SEO : pourquoi il perdure
Depuis plus de vingt ans, on assiste à des annonces récurrentes proclamant la fin du SEO. Ces prédictions reviennent à chaque fois qu’un nouveau canal ou qu’une évolution technique apparaît : l’avènement des campagnes payantes, l’essor des réseaux sociaux, l’apparition d’algorithmes anti-spam, les changements d’affichage de Google… et désormais l’irruption massive de l’**IA**. Malgré ces prophéties, le rôle du SEO a continué d’évoluer plutôt que de disparaître.
Les moteurs génératifs — comme ChatGPT, Gemini ou Perplexity — et les grands modèles de langage (LLM) introduisent de nouveaux modes de consommation d’information : plus conversationnels, contextuels et personnalisés. Ces innovations imposent de nouvelles approches stratégiques, une veille constante et une compréhension technique et éditoriale fine de leurs mécanismes.
Cependant, cette vague d’innovations a aussi favorisé l’émergence d’un vocabulaire nouveau (on voit apparaître des acronymes comme GEO, AIO, LLMO), ainsi que des offres positionnées comme « nouvelles » sur la base de ruptures qui sont souvent davantage des évolutions que des révolutions.
Comment s’y repérer dans un paysage en transformation permanente ?
Plutôt que de céder au catastrophisme, il est utile de poser quelques constats historiques : les « petites morts » successives du SEO ont en réalité contribué à étendre et professionnaliser le métier. Dès les années 2010, la discipline a dépassé le simple réglage technique des balises et des fichiers robots.txt pour intégrer des enjeux éditoriaux, analytiques et stratégiques plus larges.
Concrètement, plusieurs éléments témoignent de cette évolution :
- Les stratégies organiques performantes reposent largement sur des contenus directement orientés vers les besoins réels des utilisateurs et couvrent l’ensemble du parcours client, pas seulement les pages d’atterrissage.
- La collaboration entre SEO et SEA permet de mieux comprendre l’audience associée aux recherches de marque et d’exploiter cette donnée comme levier de notoriété.
- Le SEM hors-marque demeure un vecteur d’acquisition essentiel pour faire découvrir une expertise. Le cadre conceptuel EEAT (Expertise, Expérience, Autorité, Fiabilité/Trust) reste un référentiel structurant pour la production de contenu.
- En période de ralentissement conjoncturel, une vision globale du search — combinant branding, PR et search — peut compenser une baisse de demande spontanée, tandis que les indicateurs classiques sont déjà perturbés par le RGPD, le spam et l’augmentation des SERP « zero-clic ».
- Les réseaux sociaux figurent désormais parmi les sources d’inspiration prioritaires pour identifier des tendances et des besoins utilisateurs, influençant les calendriers éditoriaux et les angles de contenu.
- La structuration des données first-party permet d’étayer des décisions marketing avec des signaux propriétaires, limitant la dépendance aux données tierces et évitant les approches en silos.
Ces observations impliquent que le SEO d’aujourd’hui nécessite des compétences hybrides : maîtrise technique, sens éditorial, capacité d’analyse de données et compréhension des écosystèmes publicitaires et sociaux.
Le SEO moderne : un champ transdisciplinaire au-delà du code
Le cliché du « bidouilleur de balises » qui résout toutes les problématiques de visibilité en appliquant quelques recettes techniques est obsolète. Le SEO contemporain s’articule autour de la capacité d’une marque à produire de la valeur, à prouver son expertise et à dialoguer avec ses audiences sur plusieurs vecteurs.
Avec l’arrivée des systèmes IA-propulsés, la fragmentation des points de contact utilisateur s’accentue : ces outils synthétisent, agrègent et réécrivent des informations issues d’un large éventail de sources. Pour l’expert SEO/SEM, il devient donc indispensable d’identifier les impacts spécifiques de ces nouveaux modes :
- les agrégateurs qui combinent des extraits provenant de sources diverses,
- la façon dont les réponses peuvent mentionner ou non les sources originales (attribution),
- la propension moindre de certains modèles à renvoyer du trafic vers les sites référencés,
- des modèles économiques encore en construction, notamment sur la monétisation publicitaire de ces surfaces.
La stratégie de « plateformisation » que déploient certains acteurs — cherchant à retenir l’attention et à concentrer l’expérience dans leur environnement — n’est pas une nouveauté : Facebook, Amazon, LinkedIn ou d’autres acteurs ont déjà montré cette logique. L’enjeu pour les marques est d’apprendre à interagir avec ces écosystèmes plutôt que d’en être simplement victimes.
Cette période de transition constitue donc aussi une opportunité : elle invite à lancer des projets expérimentaux, des « laboratoires marketing » qui testent de nouvelles formes de contenu, de format et de mesure, tout en recentrant la création de valeur sur le produit ou le service.
GEO et SEO : deux perspectives complémentaires d’une même visibilité
Considérer GEO et SEO comme deux univers complètement déconnectés serait une erreur. Les fonctionnalités IA se déploient progressivement dans les interfaces de recherche : des « AI Overviews » apparaissent déjà sur plusieurs requêtes à l’international, et certaines expériences utilisateurs bénéficient d’un « AI Mode », montrant que la frontière entre recherche classique et recherche générative s’estompe.
Il est probable que les environnements de recherche dominants intégreront, de façon croissante, des fonctionnalités génératives et agentiques, indépendamment de l’outil utilisé.
En pratique, GEO et SEO incarnent deux façons différentes d’obtenir de la visibilité : l’un peut privilégier la liste et la citation des sources, l’autre la synthèse et la mise en contexte. Les actions à entreprendre pour améliorer sa présence sur l’un ou l’autre ne se recouvrent pas entièrement, mais elles sont souvent complémentaires et doivent s’inscrire dans une logique d’influence plutôt que de simple acquisition directe.
Autrement dit, il faut accepter que la réussite ne se mesurera plus uniquement au trafic direct généré vers un site : la présence dans des synthèses ou des overviews, la mention dans des réponses conversationnelles, ou l’apparition dans des agents virtuels représentent des formes de capital attentionnel qui ont une valeur stratégique — parfois plus difficile à quantifier mais tout aussi importante.
Un parallèle utile est celui des stratégies de social media : longtemps accusées d’être déconnectées des résultats business, elles ont fini par montrer leur impact réel sur l’image et la notoriété des marques. La même redéfinition de la valeur est en train d’opérer dans les environnements de recherche alimentés par l’**IA**.
La concurrence dans ces espaces sera intense : les surfaces disponibles sont limitées et la qualité des contenus exigée par les modèles génératifs sera élevée. Cela poussera probablement à des investissements au moins équivalents, voire supérieurs, à ceux du search « traditionnel », tant en quantité qu’en qualité de production.
Synergies et priorités : articuler les leviers d’acquisition
Une priorité stratégique pour les équipes MARCOM consiste à coordonner les leviers d’acquisition : relier la notoriété, les actions expertes et la production de contenus autour d’une feuille de route commune, partagée et alimentée par une data uniformisée. Cette coordination permet d’éviter les efforts cloisonnés et de créer des projets marketing plus cohérents et impactants.
Souvent, les recommandations formulées pour optimiser la visibilité sur les moteurs génératifs proviennent d’une réflexion plus large sur le search global : optimisation technique, structuration éditoriale, renforcement des signaux EEAT, démarches de relations publics digitales, mentions sur des sites influents, stratégies Meta search et interventions sur les réseaux.
La relation entre l’utilisateur et la marque va évoluer : l’outil de recherche cesse d’être un simple relais et devient un assistant décisionnel capable de recommander ou d’agir. Dans ce contexte, les éléments différenciateurs d’une marque — preuves d’expertise, garanties, avis clients — doivent être clairs, vérifiables et facilement exploitable par ces assistants.
Mesurer la valeur quand le trafic direct n’est plus l’unique boussole
Si la part relative du trafic direct diminue au profit d’impressions ou de réponses synthétiques, il faut revoir les méthodes d’évaluation :
- mettre en place des indicateurs de notoriété et d’intention (brand lift, sondages, volumes de recherches associées à la marque) ;
- suivre les impressions et les parts d’affichage dans les surfaces génératives quand elles sont accessibles ;
- mesurer les conversions assistées et les événements off-site (visites en magasin, appels, demandes d’information) qui peuvent être déclenchés par une recommandation d’agent ;
- utiliser des panels propriétaires ou des outils d’attribution multi-touch adaptés pour évaluer l’impact des efforts de visibilité non-directe ;
- conserver un focus sur la qualité des leads plutôt que sur le volume pur : une mention dans une synthèse peut générer une conversion différée ou une considération de marque.
Ces approches nécessitent des choix de tracking respectueux du RGPD, la valorisation de la data first-party, et parfois des recours à des mesures qualitatives (entretiens, tests utilisateurs, études de perception).
Recommandations opérationnelles pour s’adapter
Sans être exhaustif, voici une série de recommandations pratiques et opérationnelles qui permettent de se positionner durablement dans un environnement mêlant recherche classique et recherche générative :
- Renforcer les fondamentaux techniques : optimisation du crawl et de l’indexation, balisage sémantique (schema.org), gestion des canonicals, performance et compatibilité mobile. Les bonnes pratiques techniques restent la base pour être éligible aux surfaces de search.
- Structurer le contenu pour la réutilisation : produire des contenus modulaires, bien structurés par intent, facilement extraits et synthétisés par des modèles (résumés, FAQ riches, encadrés « à propos »).
- Soigner les signaux EEAT : mettre en avant l’expertise, les preuves d’expérience (témoignages, études de cas), la crédibilité des auteurs et la transparence éditoriale. Ce sont des leviers différenciants dans les logiques de confiance des modèles.
- Documenter et attribuer les sources : faciliter la traçabilité des informations publiées (références, liens externes, dates de mise à jour) pour améliorer les chances d’être cité ou de servir de source par les moteurs génératifs.
- Harmoniser la data first-party : centraliser les signaux utilisateurs et les enrichir pour mieux segmenter les audiences et personnaliser les parcours, tout en respectant la conformité juridique.
- Créer un laboratoire d’expérimentation : lancer des expérimentations sur des formats courts, des résumés structurés, des prompts optimisés et des pages dédiées pour observer les effets sur la visibilité et la conversion.
- Intégrer les réseaux sociaux et les RP digitales : utiliser ces canaux pour accroître la preuve sociale et générer des mentions de marque pertinentes, qui alimentent les signaux d’autorité.
- Former les équipes : sensibiliser les équipes marketing, produit et contenu aux spécificités des modèles génératifs et aux nouveaux indicateurs de performance.
Les compétences à privilégier en interne
Face à ces transformations, certaines compétences deviennent prioritaires :
- capacité analytique et connaissance des pipelines de données,
- expertise éditoriale orientée intent et structuration de l’information,
- connaissances techniques en SEO (crawl, balisage, indexation),
- compréhension des mécanismes des modèles génératifs et des limites de leurs réponses,
- aptitudes à conduire des expérimentations A/B et des tests de production de contenu,
- compétences en gouvernance de la data et en conformité RGPD.
Ces compétences peuvent être internalisées ou mobilisées via des partenaires, mais l’essentiel est d’organiser une gouvernance transversale qui garantit cohérence et partage des indicateurs.
Scénarios plausibles pour l’avenir du search
Plusieurs trajectoires sont plausibles pour l’évolution des moteurs et des comportements :
- un modèle d’hybridation dans lequel la recherche classique et les surfaces génératives coexistent, en fonction des intents (navigation, information, transaction) ;
- une domination progressive des interfaces conversationnelles pour les requêtes informationnelles complexes, avec une réduction des clics vers les sources primaires ;
- une optimisation continue des interfaces pour forcer l’attribution de la source et créer des passerelles vers les contenus originaux ;
- une intensification de la compétition sur la qualité du contenu et la preuve d’autorité, avec une hausse des coûts de production éditoriale.
Dans toutes ces hypothèses, les marques qui maîtriseront leurs signaux d’expertise, qui sauront produire des contenus structurés et qui auront un écosystème de data robuste seront en position favorable.
Conclusion : placer la valeur au centre d’une stratégie long terme
Plutôt que d’opposer GEO au SEO, il est préférable de considérer ces approches comme des composantes d’une stratégie globale de visibilité. L’enjeu majeur pour les décideurs est d’orchestrer les leviers — acquisition média, relations publiques digitales, influence, EEAT, contenus structurés, social — autour d’un objectif commun : démontrer et faire percevoir la valeur d’un produit ou d’un service.
Cette orchestration suppose :
- des feuilles de route communes et des indicateurs partagés,
- une gouvernance de la data centralisée,
- des efforts continus pour produire des contenus utiles, vérifiables et modulaires,
- la capacité à expérimenter rapidement et à apprendre des tests pour ajuster les priorités.
La recherche générative ne signe pas la fin du SEO : elle redistribue les cartes de la visibilité et élargit le périmètre d’action des professionnels du search. Les marques qui sauront intégrer cette réalité, travailler leurs preuves d’expertise et coordonner leurs leviers auront une longueur d’avance dans la construction d’une audience durable et résiliente.
Articles connexes
- SEO local pour chauffeurs VTC : comment positionner votre site en tête des recherches régionales
- Google supprime le paramètre num=100 : une modification qui perturbe le référencement naturel
- Comète de Confusion : le navigateur intelligent qui aspire à transformer votre expérience en ligne.
- Les 8 nouveautés SEO à ne pas rater cet été

Expert web
Vous avez un projet web ? Discutons-en pour lui donner toutes les chances de réussir.