Ben DAVAKAN

Vous êtes au bon endroit pour concrétiser vos ambitions sur le web. Parlons-en dès maintenant.

stratégies pour assurer la pérennité des éditeurs face à l’intelligence artificielle

stratégies pour assurer la pérennité des éditeurs face à l’intelligence artificielle

stratégies pour assurer la pérennité des éditeurs face à l’intelligence artificielle

stratégies pour assurer la pérennité des éditeurs face à l’intelligence artificielle

Sommaire

L’essor des technologies d’IA a provoqué une réaction importante dans le secteur de l’édition en ligne, comparable seulement aux bouleversements observés lors de l’avènement du World Wide Web. Nous savons tous que l’IA transforme la manière dont les internautes interagissent avec les sites web, mais il reste encore beaucoup d’incertitude sur les conséquences à long terme de ces transformations.

Le fait que l’IA se trouve actuellement juste après son pic médiatique ne facilite pas la compréhension : la bulle médiatique va se dégonfler, mais cela ne signifiera pas un retour pur et simple à un état antérieur — quel qu’il ait été avant l’IA.

Un nouvel état d’équilibre post-bulle finira par s’installer. J’estime que l’écosystème de l’édition en ligne en sortira globalement plus sain, mais que certains acteurs individuels verront leur activité décliner, voire disparaître.

Dans cet article, je propose plusieurs axes stratégiques, concrets et pragmatiques que les **éditeurs** en ligne peuvent adopter pour traverser cette période d’incertitude et renforcer leur résilience à moyen et long terme.

1. La recherche ne disparaît pas

Malgré les affirmations alarmistes de certains influenceurs sur les réseaux professionnels, il n’existe aucune preuve solide que la voie de la **recherche** est condamnée. À l’échelle mondiale, **Google** continue d’être la source principale de visites pour la majorité des sites — les sites d’actualité inclus.

Cependant, il est important d’admettre que le phénomène de « Peak Search » est déjà intervenu : le volume global de clics envoyés par **Google** vers des pages web a atteint un plateau et il n’est pas raisonnable d’attendre une croissance continue comparable à celle des deux dernières décennies.

The Google traffic curve has flattened (Image Credit: Barry Adams)

Pour les **éditeurs** que je qualifie de « matures en **SEO** », c’est-à-dire ceux qui ont construit des pratiques robustes d’optimisation et de croissance d’audience sur plusieurs années, la **recherche** n’est plus une source d’extension significative : le trafic issu de **Google** tend à se stabiliser.

Cela ne signifie pas pour autant que la **recherche** soit inutile comme canal de croissance. Beaucoup d’acteurs n’ont pas encore exploité pleinement leur potentiel en **SEO** : des gains notables peuvent encore être obtenus par des améliorations éditoriales et techniques bien ciblées.

Mais collectivement, la **recherche** est devenue un canal à croissance nulle. Le constat clé : la part de marché des clics ne s’agrandit plus — chaque clic gagné par un site se traduit mécaniquement par un clic en moins pour un autre. Le résultat est une concurrence plus rude pour un gâteau stable ; dans ce contexte, une stratégie solide de SEO est indispensable.

IA : un accélérateur

Plusieurs éditeurs restent sceptiques à propos des déclarations de **Google** sur l’impact de l’IA sur le trafic, et à juste titre. La courbe de trafic provenait d’un aplatissement entamé bien avant l’émergence visible de l’IA.

Des signes avant-coureurs existaient déjà : le phénomène des recherches sans clic (« zero-click search ») était documenté plusieurs années avant l’apparition de ChatGPT. Néanmoins, beaucoup de sites ont ignoré ces signaux et ont continué à dépendre de **Google** comme principal moteur de croissance, sans diversifier suffisamment leurs canaux.

L’IA n’est donc pas la cause première de la stagnation du trafic, mais elle a fonctionné comme un catalyseur : elle a amplifié la tendance au « zero-click » en facilitant l’extraction et l’agrégation d’informations sans nécessiter la visite d’une page source.

Des fonctionnalités comme les extraits enrichis (featured snippets), la multiplication d’éléments intrusifs dans les pages de résultats, la fragmentation du comportement des utilisateurs, et la fatigue d’audience étaient déjà des facteurs de fond. L’IA a simplement accéléré des processus qui étaient déjà en cours.

Comment maximiser la visibilité en recherche

Conscient de son rôle central dans l’accès à l’information en ligne, **Google** a introduit des mécanismes visant à aider les médias à fidéliser leur lectorat. Parmi ces nouveautés figure la possibilité de définir des « Preferred sources » dans les blocs Top Stories.

Quand un bloc Top Stories apparaît dans une page de résultats, si une source préférée définie par l’utilisateur propose un article pertinent, **Google** peut prioriser cette source dans le bloc.

Top Stories on Google.com for the ‘fernando alonso’ query with GPFans.com as a preferred source (Image Credit: Barry Adams)

La procédure pour définir une source préférée est simple : on peut le faire depuis l’icône en haut d’un bloc Top Stories ou en utilisant un lien direct :

https://www.google.com/preferences/source?q=yourdomain.com

Par exemple, pour définir SEOforGoogleNews.com comme source préférée, on peut utiliser ce lien :

https://www.google.com/preferences/source?q=seoforgooglenews.com

Techniquement, il est possible d’informer ses lecteurs de cette fonctionnalité et de leur expliquer comment ajouter un site comme source préférée. **Google** fournit même des images et des éléments graphiques à cet effet ; toutefois, restent des questions légitimes concernant la création de bulles de filtrage et d’écosystèmes informationnels de plus en plus personnalisés.

Il est important de garder en tête que la personnalisation et la sélection de sources par l’utilisateur existent déjà sur une vaste échelle, et que cette fonctionnalité ne fait que les institutionnaliser davantage dans l’interface de Google.

2. L’essor de Discover

Alors que le canal de la **recherche** montre des signes de plateau, le fil Discover de **Google** continue de monter en puissance. Nombre d’éditeurs constatent que Discover apporte des volumes significatifs de trafic, parfois suffisamment pour compenser une stagnation ou une baisse côté recherche.

Cependant, il serait imprudent de baser une stratégie d’audience exclusivement sur Discover. Mes réserves s’appuient sur plusieurs constats que j’ai déjà partagés dans des analyses et qui ont été approfondis par d’autres experts :

Les principaux risques liés à une dépendance excessive à Discover :

  1. Discover peut encourager des pratiques éditoriales de faible qualité : titres racoleurs, recyclage d’informations (churnalism), sensationnalisme et contenu à faible valeur ajoutée.

  2. Le trafic en provenance de Discover est très volatile et sujet aux mises à jour algorithmiques — il est difficile d’en faire une source stable et prévisible.

  3. Discover n’est pas un service au cœur du modèle économique de **Google** ; la firme peut donc le modifier ou l’abandonner sans conséquences significatives pour elle-même.

  4. La dépendance à Discover augmente le pouvoir d’**Google** sur les médias, ce qui fragilise l’autonomie des **éditeurs**.

  5. Discover échappe pour l’instant à certains niveaux de régulation ou de surveillance qui s’appliquent aux résultats de **recherche** classiques.

Malgré ces limites, la réalité chiffrée reste : Discover est une source de trafic majeure et mérite donc d’être prise en compte dans un plan de diversification.

Au-delà des bonnes pratiques d’optimisation connues pour Discover (qualité des images, titres engageants mais précis, etc.), **Google** a ajouté une fonctionnalité intéressante :

S’abonner aux éditeurs via Discover

Comme pour les « Preferred sources » dans les Top Stories, **Google** propose désormais une option de « Follow » (« Suivre ») dans Discover, qui permet aux utilisateurs de suivre plus facilement des publications et ainsi recevoir davantage de contenu provenant des titres qu’ils apprécient.

Lorsqu’un lecteur consulte un article dans son fil Discover, il peut accéder à la page dédiée de l’éditeur et cliquer sur « Follow on Google » pour s’abonner. Les contenus de cet éditeur seront alors favorisés dans le fil de l’utilisateur.

Cette fonctionnalité n’est pas encore disponible partout, mais elle représente une opportunité pour les médias qui souhaitent transformer des visites éphémères en une relation continue avec leur audience.

SERoundtable.com’s Discover page with Follow feature (Image credit: Barry Adams)

Par ailleurs, **Google** a annoncé que Discover intégrera davantage de contenus issus des réseaux sociaux — vidéos **YouTube**, publications **Instagram**, voire posts provenant de plateformes de microblogging. Ce mouvement renforce l’intérêt d’adopter une stratégie multimodale (voir ci-dessous).

3. Adopter le contenu multimédia

La consommation d’actualité n’est plus limitée au texte depuis longtemps : les publics attendent aujourd’hui des formats variés et adaptés à des plateformes différentes. Optimiser uniquement pour l’article écrit, c’est laisser passer des opportunités importantes.

Avec l’intégration croissante de contenus sociaux dans Discover, les **éditeurs** ont un intérêt direct à produire et diffuser du contenu sous forme de vidéos, de courts formats, et de publications natives sur les réseaux.

Voici quelques pistes concrètes :

  • Produire des vidéos **YouTube**, en particulier des **Shorts**, qui permettent de capter des audiences mobiles et d’alimenter plusieurs canaux avec un seul enregistrement.

  • Créer des publications et des Reels pour **Instagram**, adaptés aux comportements de consommation visuelle et aux algorithmes des plateformes sociales.

  • Lancer ou développer des **podcasts** : le format audio captive une audience fidèle et permet de décliner une même enquête journalistique sur un nouveau canal.

  • Maintenir ou relancer des **newsletters** par e-mail : l’email reste un vecteur puissant de fidélisation et de monétisation quand il est bien conçu.

Un avantage souvent négligé : la production multimodale peut être efficiente. Un reportage textuel approfondi peut se transformer en épisode de podcast, cet enregistrement filmé peut devenir une vidéo longue, puis une série de clips courts pour les réseaux sociaux — autant de déclinaisons avec un coût marginal relativement faible si la logistique est organisée.

(Image credit: Barry Adams)

Les barrières techniques et financières à l’entrée sont moins élevées qu’on l’imagine : de nombreux outils de production audio et vidéo sont aujourd’hui accessibles et permettent d’atteindre des niveaux professionnels sans investissements démesurés.

Intégrer le **multimédia** à votre stratégie ne garantit pas le succès, mais il augmente nettement les probabilités de capter des segments d’audience différents et d’augmenter la valeur perçue de votre marque éditoriale.

4. Devenir inoubliable

Ce principe est central : si votre titre d’actualité est interchangeable avec plusieurs autres, vous courrez un risque élevé de perte d’audience dans un environnement où la concurrence pour chaque clic est plus féroce.

De nombreux sites refusent encore de regarder en face leur niveau de commoditisation. Ils surestiment une supposée singularité et continuent de produire des contenus qui, au fond, auraient pu paraître sur une demi-douzaine d’autres sites.

Estimation pragmatique : une part significative — probablement près de la moitié — des sites d’actualité sont aujourd’hui oubliables. Ils n’offrent pas un élément de distinction suffisant pour créer une loyauté durable auprès des lecteurs.

La racine de ce problème est souvent simple : ces **éditeurs** ne connaissent pas suffisamment leurs **audiences**. Ils se fient à des hypothèses internes plutôt qu’à des retours réels de leurs lecteurs.

Un conseil basique et pourtant rarement appliqué : discutez avec vos lecteurs. Posez-leur des questions précises : qu’apprécient-ils chez vous ? Qu’est-ce qui les fait revenir ? Qu’est-ce qui les aurait fait s’abonner, payer ou recommander votre média ?

Une démarche d’écoute structurée peut inclure :

  • Enquêtes régulières (questionnaires courts et ciblés).

  • Entretiens approfondis avec des segments d’audience représentatifs.

  • Analyse des parcours utilisateur et des préférences de consommation (Sparktoro, outils d’analyse d’audience, etc.).

  • Expérimentations contrôlées (tests A/B sur les formats, les titres, la longueur des contenus).

Les informations issues de ce travail permettent de définir une proposition de valeur claire (USP) : savoir précisément ce que vous faites mieux que les autres, et en tirer un positionnement éditorial et commercial cohérent.

Transformer des lecteurs occasionnels en une audience fidèle vous protège des fluctuations d’algorithmes et des innovations technologiques : une base d’utilisateurs loyaux rend votre publication moins vulnérable aux décisions de plateformes tierces.

Quid de l’AEO/GEO/LLMO ?

Vous remarquerez que je n’ai pas fait de l’optimisation pour l’AI Search (parfois appelée AEO, GEO ou LLMO) une stratégie centrale de survie. La raison est simple : les grands modèles de langage (LLM) excellent dans la synthèse et la génération de texte, mais générer du trafic qualifié vers un site d’actualité n’est pas leur point fort.

Pour des sites transactionnels — e-commerce, réservation voyage, services nécessitant une conversion — la visibilité dans des réponses générées par des LLM peut avoir un intérêt certain. Une mention ou une citation dans un assistant conversationnel peut conduire à une conversion. Pour les sites de contenu informatif, en revanche, les citations dans les réponses diffusées par des modèles d’IA ne génèrent pas, à l’heure actuelle, des volumes de clics comparables à ceux provenant de la **recherche** ou des autres canaux.

Toutefois, la bonne nouvelle est que la plupart des bonnes pratiques d’optimisation pour les LLM coïncident avec un SEO de qualité : clarté, structure, sources fiables, et valeur ajoutée pour les lecteurs. Autrement dit, travailler sérieusement son SEO et sa relation avec l’**audience** vous mettra naturellement dans une meilleure position, quel que soit l’écosystème d’indexation futur.

Ne laissez donc pas le battage médiatique autour de l’IA vous détourner de décisions commerciales solides. Les priorités restent la compréhension de votre public, l’amélioration continue de la qualité éditoriale et la diversification des canaux.

Plusieurs conférences et rencontres professionnelles abordent d’ailleurs ces sujets en profondeur, incluant l’impact de l’IA sur l’édition et les méthodes de monétisation. Ces événements sont des lieux utiles pour confronter les pratiques et actualiser vos choix stratégiques.


Ressources complémentaires :

Ce texte reprend et synthétise des idées publiées à l’origine sur SEO for Google News, en les reformulant et en les adaptant au lectorat francophone.

Featured Image: Stokkete/Shutterstock