Prévisions précédentes : 2018 | 2019 | 2020 | 2021 | 2022 | 2023 | 2024
Ceci est ma huitième publication annuelle de prévisions. L’objectif n’est pas d’annoncer l’avenir avec certitude, mais d’entraîner une réflexion structurée autour des tendances stratégiques.
À titre d’exemple, en 2018 j’évoquais que des **communautés de niche** deviendraient d’excellents canaux de croissance, et j’ai aussi indiqué en 2019 le retour de l’**email marketing**, qui a mis plusieurs années avant de redevenir central. Certaines prédictions prennent du temps ; d’autres ne se réalisent pas exactement comme prévu.
Toutes les prévisions pour 2026
- Les outils de suivi de la visibilité IA (AI visibility) affrontent une secousse majeure.
- ChatGPT lance sa première mise à jour de qualité.
- La poursuite de la baisse des clics pousse vers une défense par une « Dark Web » pour le contenu humain.
- L’essor de l’IA contraint les plateformes UGC à séparer les fils d’actualité.
- La régie publicitaire de ChatGPT fournit des « données de demande » inédites.
- Perplexity est cédé à xAI ou Salesforce.
- La concurrence fait chuter l’action de Nvidia d’environ -20 %.
Depuis trois ans nous vivons une ère « générative » où les modèles pouvaient parcourir le web et le résumer. 2026 inaugure selon moi l’ère « agentique », dans laquelle l’IA cesse d’être uniquement consommatrice d’information pour devenir capable d’« exécuter des tâches » concrètes et d’écrire activement sur le web.
Cela modifie profondément l’économie numérique : le web se fragmente en deux couches distinctes :
- La couche transactionnelle : dominée par des **agents** et des bots qui effectuent des appels d’API et des opérations commerciales sans passer par le web ouvert.
- La couche humaine : où des utilisateurs vérifiés et des éditeurs premium se replient derrière des barrières (« Dark Web ») — paywalls, zones authentifiées, métadonnées signées (C2PA) — pour s’extraire du flux massif de contenu généré par l’IA.
Un point d’incertitude important concerne la publicité : l’expansion des publicités dans les modes IA de Google et l’affichage de publicités par ChatGPT pour les utilisateurs gratuits pourraient alléger la pression sur les CPC, mais les **AIOs** (AI Overviews) pourraient au contraire les faire fluctuer fortement. 2026 pourrait être une année de variations de prix intenses où des équipes réactives réallouent quotidiennement leur budget entre Google (coût élevé / intention forte) et ChatGPT (coût faible / découverte).
Ce n’est ni le plus fort ni le plus intelligent des êtres qui survit, mais celui qui s’adapte le mieux au changement.
— Leon C. Megginso
Référencement & visiblité IA (SEO / AEO)
Un net revirement pour les outils de suivi de la visibilité IA
Prédiction : J’anticipe un « événement d’extinction » pour la catégorie des outils spécialisés de suivi de la visibilité IA au troisième trimestre 2026. Plutôt qu’une simple consolidation, on devrait observer une vague de fermetures, d’acquisitions à la pièce et de pivots : beaucoup de start-ups n’auront pas la croissance de revenus suffisante pour justifier des tours de table ultérieurs.
Raisons :
- Le suivi est devenu surtout une fonctionnalité, pas une entreprise autonome : des plateformes établies peuvent intégrer une version basique en quelques semaines.
- Plusieurs acteurs manquent de preuves tangibles côté clients (ex. peu ou pas d’avis sur des plateformes comme G2), ce qui crée une bulle de valorisation fragile.
- L’impact économique de l’optimisation pour la visibilité IA reste difficile à mesurer de façon robuste.
Contexte :
- Une vingtaine d’entreprises ont levé plus de 220 millions de dollars à valorisations élevées ; une large partie de ces sociétés est née en 2024.
- L’acquisition de Semrush par Adobe pour 1,9 milliard de dollars illustre que la valeur se trouve dans des plateformes dotées d’une distribution, pas dans des tableaux de bord isolés.
Conséquences :
- Les investisseurs se détourneront des outils « read-only » (tableaux de bord) au profit de solutions « write-access » : des agents capables de créer, publier et corriger automatiquement du contenu.
- Au sommet, il restera quelques vainqueurs intégrés aux grandes suites SEO ; beaucoup d’autres devront se reposer sur des fonctions d’automatisation de workflow pour survivre.
- La question centrale pour ces outils sera : que suivre exactement et comment influer sur ces métriques quand une part importante de l’impact dépend de sites tiers ?
ChatGPT déploie sa première mise à jour de qualité
Prédiction : En 2026, il sera plus difficile pour des acteurs malveillants d’influencer la **visibilité IA** via du spam de liens, de la génération massive de contenu ou du cloaking. Les agents utiliseront vraisemblablement la corroboration multi-source pour limiter cette asymétrie.
Pourquoi :
- Il est problématique qu’un simple article promouvant une solution auto-citée devienne suffisant pour dominer les réponses IA sur une requête donnée.
- Des approches comme ReliabilityRAG ou les systèmes de Multi-Agent Debate permettent à un agent de récupérer des informations pendant qu’un autre agent fait office de « juge » afin de vérifier les sources avant de présenter une réponse.
Contexte :
- La plupart des agents actuels (ex. versions standards de ChatGPT, Gemini, Perplexity) reposent sur la technique dite de RAG (Retrieval-Augmented Generation), qui reste vulnérable aux hallucinations.
- Des spammeurs ciblent souvent des requêtes à faible volume faute de concurrence. L’intégration de graphes de connaissances permettrait aux modèles d’écarter automatiquement des sites hors sujet ou de faible autorité malgré la présence de mots-clés.
Conséquences :
- Les ingénieurs d’OpenAI et d’autres vont probablement renforcer les filtres de qualité.
- On observera une transition des LLMs vers des processus de corroboration multi-sources plutôt que vers un seul pipeline de récupération.
- Les acteurs malveillants pourraient répondre en complexifiant leurs stratégies (ex. création de médias « zombies », cloaking sophistiqué).
Baisse continue des clics : l’émergence d’un « Dark Web » éditorial
Prédiction : Les **AI Overviews (AIOs)** gagneront en couverture et s’appliqueront jusqu’à 75 % des mots-clés pour les grands sites ; le mode IA de Google devrait concerner 10–20 % des requêtes.
Pourquoi :
- Google rapporte déjà une augmentation du volume de requêtes générées par les AIOs, ce qui motive une hausse de leur déploiement.
- Le taux de clic (CTR) vers les résultats organiques a fortement diminué dans des analyses récentes, créant une pression sur les revenus publicitaires des éditeurs.
Contexte :
- Des grands éditeurs constatent déjà qu’environ la moitié de leurs mots-clés est couverte par des AIOs.
- Google teste l’intégration de publicités dans son mode IA ; si ce test est concluant, l’entreprise pourra étendre ce format et améliorer son positionnement financier.
- Selon une étude de Bain, une large proportion des consommateurs utilise désormais des résumés IA pour une part importante de leurs recherches, ce qui modifie profondément le parcours utilisateur.
- En 2025, le secteur des médias a vécu une purge significative, reposant des modèles économiques centrés sur le trafic au profit d’autres leviers.
Conséquences :
- Les éditeurs chercheront à monétiser directement leurs audiences (contenu expérientiel, revues de première main, données propriétaires) puisque l’IA ne peut pas « faire l’expérience » des choses.
- Attendez-vous à une vague d’« LLM blockades » : des éditeurs bloqueront l’accès aux robots d’indexation étendue (ex. Google-Extended, GPTBot) via robots.txt ou autres mécanismes, créant un web « humain premium » invisible aux agents publics.
- La bifurcation entre le contenu « accessible aux IA » et le contenu « réservé aux humains » se renforcera.
Marketing & plateformes
L’IA contraint les plateformes UGC à segmenter les fils
Prédiction : D’ici 2026, le risque d’« usurpation d’identité**» (identity spoofing) sera probablement la principale menace cybersécurité pour les entreprises cotées. La question clé évolue de « ce contenu est-il réel ? » vers « cette source est-elle vérifiée ? ».
Pourquoi :
- Les influenceurs humains exposent les marques à des risques réputationnels et contractuels. Les **influenceurs IA** apparaissent comme des actifs « brand-safe », toujours disponibles et facilement contrôlables.
Contexte :
- Les tentatives de fraude par deepfakes ont crû de façon spectaculaire ; de nombreux systèmes de détection actuels produisent un taux de faux positifs élevé, ce qui complique leur adoption à grande échelle.
- Exemples concrets : en 2024 une entreprise d’ingénierie a perdu des dizaines de millions après une fraude via une vidéoconférence deepfake ; en 2023, une image truquée a provoqué une réaction financière sur l’indice boursier.
Conséquences :
- Les signatures cryptographiques (ex. C2PA) deviendront des preuves privilégiées d’authenticité pour la vidéo et la photo.
- Des plateformes comme YouTube ou LinkedIn pourraient séparer les fils en « humains vérifiés » (inscription + vérification biométrique) et « synthétiques/non vérifiés ».
- Le badge de vérification cessera d’être un simple statut social pour devenir une exigence de sécurité sur les comptes à forte audience.
- Les régulateurs (ex. le EU AI Act) pousseront les plateformes à étiqueter explicitement le contenu généré par l’IA.
- Les fabricants d’appareils (Sony, Canon, Apple) intégreront progressivement des signatures C2PA au niveau matériel ; les contenus dépourvus de ces métadonnées seront automatiquement marqués comme « non vérifiés ».
La régie de ChatGPT enrichit les marques en « données de demande »
Prédiction : OpenAI s’oriente vers un modèle tarifaire hybride en 2026 : une offre gratuite financée par la publicité et une offre professionnelle fondée sur un système de crédits.
Pourquoi :
- Les coûts d’inférence sont élevés : un utilisateur intensif peut consommer bien plus que le prix d’un abonnement standard, rendant les comptes non rentables sans un modèle publicitaire ou de crédits.
Contexte :
- Des fuites de code dans l’application Android de ChatGPT font déjà référence à des formats publicitaires potentiels (carrousel d’annonces, « bazaar content »).
Conséquences :
- Les utilisateurs gratuits verront des citations sponsorisées et des encarts produits au sein des réponses.
- Les utilisateurs intensifs devront acheter des crédits de calcul pour les requêtes approfondies ou les agents gourmands en ressources.
- Une interface de type « Search Console » apparaîtra : les annonceurs réclameront des tableaux de bord indiquant dans combien de conversations leurs produits ont été recommandés. Ces données alimenteront de nouveaux efforts d’optimisation (AEO / GEO / LLMO).
- L’expression « bazaar content » laisse entendre qu’OpenAI pourrait permettre des transactions intégrées dans le chat (ex. réserver un billet), transformant la plateforme en marketplace concurrençant des acteurs comme Amazon ou Expedia.
Technologie & infrastructures
Perplexity cédé à xAI ou Salesforce
Prédiction : Perplexity sera vraisemblablement acquise fin 2026 pour une fourchette estimée à 25–30 milliards de dollars. Après une phase de croissance rapide, les contraintes d’économie d’échelle et le « mur des unités économiques » pousseront la société vers une vente à un acteur stratégique.
Pourquoi :
- Une valorisation élevée obtenue en 2025 exige une croissance de type « Facebook-level » ; pourtant Perplexity semble plafonner autour de 30 millions MAU, loin derrière des plateformes à plus grande échelle comme ChatGPT.
- Les géants technologiques du marché intégreront rapidement les fonctionnalités clés de Perplexity (recherches profondes en temps réel) dans leurs propres offres.
Contexte :
- Les requêtes « deep search » de Perplexity coûtent nettement plus cher à exécuter qu’une recherche standard, et l’absence d’un réseau publicitaire à marge élevée rend le modèle difficile à soutenir gratuitement.
- Des acquisitions récentes par des entreprises comme Salesforce montrent la volonté d’acheter des briques technologiques pour bâtir des agents d’entreprise.
- xAI dispose de capitaux conséquents et pourrait chercher à combler les lacunes de Grok en acquérant une technologie de vérification en temps réel.
Conséquences :
- Si xAI rachète Perplexity, Grok pourrait s’appuyer sur des sources citées pour réduire les hallucinations et rapprocher X d’un moteur d’information plus fiable.
- Un rachat par Salesforce renforcerait sa position sur la recherche d’entreprise en combinant web public et CRM privé pour générer des réponses contextualisées.
La concurrence comprime la valorisation de Nvidia
Prédiction : Le cours de l’action Nvidia pourrait connaître une correction de plus de 20 % en 2026 si ses principaux clients migrent une partie notable (15–20 %) de leurs charges vers des siliciums internes. Ce mouvement entraînerait une compression du ratio P/E, réévaluant le rôle de Nvidia sur un marché en voie de commoditisation.
Pourquoi :
- Les hyperscalers (Microsoft, Meta, Google, Amazon) représentent une part importante du chiffre d’affaires de Nvidia et cherchent à réduire leur dépendance en investissant massivement dans leur propre chaîne d’approvisionnement en puces.
- Pour ces acteurs, il suffit d’avoir des puces « suffisamment bonnes » pour l’inférence interne ; elles n’ont pas besoin de surpasser Nvidia sur tous les plans techniques.
Contexte :
- Des rapports indiquent des négociations et des développements visant à louer ou à acheter des architectures alternatives (ex. TPU, Maia, Trainium), réduisant le besoin absolu de GPU Nvidia pour un grand nombre de workloads.
- OpenAI a annoncé un partenariat industriel pour produire sa propre puce d’inférence en 2026, illustrant la tendance à internaliser la stack matérielle.
- Sans Nvidia, la performance du S&P500 en 2025 aurait été notablement différente, ce qui souligne l’importance de l’entreprise dans l’écosystème actuel.
Conséquences :
- Nvidia répondra probablement en vendant des solutions d’ensemble (racks complets, refroidissement, réseau) pour verrouiller les clients dans un écosystème matériel difficile à remplacer.
- Si les hyperscalers annoncent une baisse même modérée de leurs commandes, le marché paniquera, considérant que le cycle d’investissement en IA a atteint un plateau.
Image en vedette : Paulo Bobita / Search Engine Journal
Articles connexes
- Comment booster sa visibilité sans dépenser en publicité ?
- Les critères de classement pour le SEO local – Guide complet
- sortir de l’impasse sur l’efficacité en ligne
- La version alpha ne surveille pas les modèles de langage (LLM)
- Nommer un responsable des renseignements personnels : Rôles et responsabilités (Loi 25)
- Pourquoi privilégier les sprints aux listes de contrôle
- de quelle manière l’intelligence artificielle sélectionne ses sources d’information
- nous passons à un web destiné aux intelligences artificielles et à leurs agents
