Ben DAVAKAN

Vous êtes au bon endroit pour concrétiser vos ambitions sur le web. Parlons-en dès maintenant.

mise à jour des liens du mode IA de Google, données sur la part de clics et propagation de ChatGPT — actualité SEO

mise à jour des liens du mode IA de Google, données sur la part de clics et propagation de ChatGPT — actualité SEO

mise à jour des liens du mode IA de Google, données sur la part de clics et propagation de ChatGPT — actualité SEO

mise à jour des liens du mode IA de Google, données sur la part de clics et propagation de ChatGPT — actualité SEO

Sommaire

Bienvenue dans le point hebdomadaire sur le SEO : cette édition explique comment les modifications affectent l’affichage des **liens** dans les réponses pilotées par **IA**, vers où s’orientent les **clics organiques**, et quelles langues **ChatGPT** privilégie lorsqu’il interroge des sources.

Voici les éléments essentiels à connaître pour vos analyses et activités.

Google revoit la présentation des liens dans les synthèses et en mode IA

Robby Stein, vice-président produit en charge de la recherche chez Google, a annoncé sur X une évolution de l’affichage des éléments cliquables dans les **AI Overviews** et le **AI Mode**, sur desktop comme sur mobile.

Principaux constats : sur ordinateur, des groupes de **liens** s’ouvrent désormais via une fenêtre contextuelle au survol, présentant le nom du site, le favicon et une courte description. Parallèlement, Google déploie des icônes de **lien** plus explicites et visuellement mises en avant, tant pour la version desktop que mobile.

Pourquoi cette évolution a de l’importance

Il s’agit d’une nouvelle étape dans la série de changements annoncés par Stein depuis l’été précédent, lorsque l’amélioration de la visibilité des **liens** en ligne a été décrite comme l’« étoile polaire » de Google pour la recherche basée sur l’**IA**. Le fil conducteur est net : Google affine constamment la manière dont les **liens** sont présentés au sein des réponses générées par l’**IA**.

La fenêtre contextuelle au survol introduit un modèle d’interaction inédit pour les synthèses automatiques. Plutôt que de se contenter de courtes citations inline, facilement négligeables, l’utilisateur reçoit désormais une carte de prévisualisation contenant suffisamment de contexte pour évaluer l’intérêt d’un clic. Cette nouvelle ergonomie modifie en profondeur la réflexion des éditeurs sur le volume réel de trafic que les résultats générés par l’**IA** peuvent diriger vers leurs pages.

Réactions et perspectives du secteur

Plusieurs spécialistes du domaine observent ces changements avec attention. La consultante SEO Lily Ray (Amsive) a indiqué sur X avoir constaté l’apparition de ces cartes de **lien** et exprimé l’espoir qu’elles deviennent pérennes.

Pour les propriétaires de contenus, deux effets majeurs sont à noter :

  • la visibilité accrue des sources citées peut redistribuer la hiérarchie des clics, en favorisant des pages dont les extraits ou les descriptions sont plus convaincants ;
  • la présence de prévisualisations riches (favicons, descriptions) augmente le rôle de la marque et de la mise en forme du résultat dans le taux de clics, au-delà du seul classement algorithmique.

En bref, l’évolution de l’interface transforme partiellement la mécanique du trafic : il ne s’agit plus uniquement d’apparaître en haut des résultats, mais aussi de « vendre » le clic via un contenu source pertinent et bien structuré.

Près de la moitié des requêtes secondaires de ChatGPT pour des prompts non anglophones se déroulent en anglais

Un rapport publié par la société d’analyse de recherche IA Peec AI révèle que, dans de nombreux cas, les requêtes secondaires lancées par **ChatGPT Search** sont effectuées en anglais, même lorsque la requête initiale est rédigée dans une autre langue.

Faits saillants : Peec AI a examiné plus de 10 millions de prompts et 20 millions de requêtes secondaires issues de sa plateforme. Le résultat : pour les prompts non anglophones, 43 % des requêtes secondaires analysées ont été formulées en anglais. De plus, près de 78 % des sessions initiées dans une autre langue incluaient au moins une requête secondaire en anglais.

Implications pour les contenus multilingues

Lorsqu’il construit une réponse, **ChatGPT Search** peut reformuler l’instruction de l’utilisateur en « une ou plusieurs requêtes ciblées », comme l’indique la documentation d’OpenAI. OpenAI ne précise pas comment la langue de ces requêtes secondaires est déterminée. Les données de Peec AI laissent entendre qu’**l’anglais** est souvent introduit automatiquement, y compris lorsque l’utilisateur et son emplacement sont manifestement non anglophones.

Concrètement, cela signifie que la sélection des sources par l’**IA** peut favoriser des contenus en anglais au moment même où les signaux classiques de pertinence (tels que les signaux de référencement locaux, le balisage linguistique ou les attributs hreflang) devraient intervenir. Autrement dit, un contenu dans la langue locale peut être exclu prématurément du processus de recherche de sources si des requêtes secondaires en anglais sont privilégiées.

Pour les équipes éditoriales et SEO évoluant sur des marchés non anglophones, cette dynamique introduit un biais potentiel dans la découverte et la citation des sources : l’algorithme intermédiaire qui reformule et fan-out les requêtes peut opérer une sélection linguistique avant même que les signaux de qualité habituels soient évalués.

Les conséquences comprennent :

  • une possible sous-représentation des ressources locales dans les réponses générées par l’**IA** ;
  • une compétition accrue avec des contenus en anglais, parfois mieux couverts ou consolidés pour certains sujets ;
  • la nécessité de repenser la visibilité internationale au-delà des seules pratiques de SEO traditionnelles.

Le rapport de Peec AI soulève des questions fondamentales sur la manière dont la langue est choisie dans les chaînes de requêtes internes des modèles d’**IA** et sur l’impact de ce choix sur l’équité des sources citées.

La team Search Relations de Google évite de garantir qu’un site web reste indispensable

La question « Faut‑il encore posséder un site web en 2026 ? » a été posée directement à l’équipe Search Relations de Google. Leur réponse n’a pas été un oui catégorique.

Éléments clés : dans un récent épisode du podcast Search Off the Record, Gary Illyes et Martin Splitt ont consacré environ 28 minutes à ce sujet. Ils ont reconnu que les sites web conservent des atouts — souveraineté des données, maîtrise de la monétisation, indépendance vis‑à‑vis des politiques de modération des plateformes — mais n’ont pas soutenu que le web ouvert demeure une nécessité absolue et universelle.

Pourquoi cette position est significative

La recherche de **Google** repose historiquement sur le crawl et l’indexation de contenus disponibles sur le web. Le fait que la propre équipe en charge des relations avec la recherche présente la possession d’un site web comme une décision stratégique plutôt qu’une évidence technique mérite attention.

Gary Illyes a formulé l’idée la plus proche d’une orientation : selon lui, si l’objectif est de rendre une information accessible au plus grand nombre possible, un **site web** demeure probablement la solution la plus robuste — mais il a clairement précisé qu’il s’agissait de son opinion personnelle, non d’une préconisation officielle.

Cette réflexion reflète la fragmentation croissante des parcours utilisateurs : échange via chatbots pilotés par **IA**, consommation dans des flux sociaux, participation à des communautés spécialisées, et recours au moteur de recherche classique. Ainsi, pour les conseillers et praticiens du numérique, la réponse à la question « ai‑je besoin d’un site ? » dépend de plus en plus de la localisation de l’audience cible et des objectifs commerciaux ou informationnels, plutôt que d’un modèle universel unique.

Thème de la semaine : l’organique se réinvente en permanence

Les développements rapportés cette semaine illustrent différents facteurs qui érodent ou redéfinissent ce que l’on entend par canal organique traditionnel.

Premièrement, **Google** refaçonne la façon dont les **liens** sont affichés dans les réponses pilotées par l’**IA**, attestant de la préoccupation croissante pour le partage de trafic. Deuxièmement, le mécanisme de fan-out de **ChatGPT** introduit une filtration linguistique capable d’exclure des contenus non anglophones avant même l’évaluation des signaux de pertinence. Troisièmement, l’ambivalence de la propre équipe Search Relations de **Google** devant la nécessité universelle d’un site web met en lumière la diversité des trajectoires d’accès à l’information.

Ces tendances soulignent plusieurs points d’attention pour les professionnels :

  • la diffusion de l’audience sur plusieurs surfaces (moteurs, assistants conversationnels, réseaux sociaux, plateformes communautaires) réduit la centralité du canal **organique** classique ;
  • la notion de visibilité s’étend désormais à la manière dont les extraits, icônes et cartes de prévisualisation sont conçus et produits ;
  • les équipes devront de plus en plus analyser non seulement le positionnement dans les SERP, mais aussi la performance des contenus lorsqu’ils sont invoqués comme sources par des agents automatisés.

Considérations pour mesurer et interpréter les flux de trafic

Dans ce nouvel environnement, il devient crucial de distinguer plusieurs vecteurs :

  • les clics issus des pages de résultats classiques ;
  • les redirections provoquées par des cartes et des prévisualisations dans les réponses pilotées par **IA** ;
  • les accès provenant d’agrégateurs, d’assistants vocaux et d’environnements fermés où la traçabilité peut différer.

Les équipes d’analytique et de contenu se trouvent confrontées à la nécessité de recomposer leurs tableaux de bord pour refléter ces sources multiples et pour comprendre comment les signaux d’intention et de langue influencent l’attribution des sources citées.

Approfondissements : conséquences pratiques pour les éditeurs et spécialistes du SEO

Les changements évoqués ne sont pas seulement techniques : ils modifient les critères opérationnels et éditoriaux. Voici quelques axes d’analyse et d’adaptation possibles — présentés ici à titre informatif :

1) Adaptation du contenu à une présentation riche

La mise en avant de cartes de prévisualisation et d’éléments graphiques (favicons, descriptions courtes) élève la part d’importance du « snippet » visible par l’utilisateur. Pour les éditeurs, la qualité du titre, de la métadescription et de la structure du balisage devient un facteur d’attractivité renforcé, au‑delà du seul positionnement algorithmique.

La capacité d’un contenu à convaincre au premier coup d’œil dans une fenêtre contextuelle peut modifier le taux de clic et la distribution du trafic entre différentes sources citées.

2) Visibilité dans un contexte multilingue

Les résultats de Peec AI posent la question de l’équité linguistique dans les pipelines de **recherche** pilotés par des modèles. Même pour des requêtes initiales non anglophones, l’introduction systématique d’**anglais** dans les fan-outs peut conduire à une sous-citation des ressources locales. Cela amène à s’interroger sur la conception des contenus multilingues et sur la mise en place d’indicateurs permettant d’évaluer la représentation linguistique parmi les sources citées par l’**IA**.

3) Réflexion stratégique sur la présence en ligne

La discussion interne à **Google** autour de la pertinence d’un site web illustre que la décision de créer ou de maintenir un site ne relève plus uniquement d’une logique technique mais d’un arbitrage stratégique : contrôle des données, options de monétisation, propriété du canal de distribution et exposition aux politiques de modération des plateformes. Pour certaines organisations, des présences alternatives (plateformes spécialisées, réseaux, apps) peuvent compléter ou, dans certains cas, remplacer le site traditionnel.

4) Mesure de l’impact de l’IA sur le trafic

Il devient important d’identifier les signaux et les métriques qui traduisent l’apport réel des réponses pilotées par **IA**. La présence de citations visibles, la qualité du snippet et la fréquence d’apparition dans des synthèses automatisées sont autant d’indicateurs à suivre pour comprendre le flux d’utilisateurs en provenance des surfaces conversationnelles.

Perspectives réglementaires et éthiques

La montée en puissance des agents génératifs et leur rôle d’agrégateurs de contenus posent aussi des questions qui dépassent le seul périmètre technique :

  • comment assurer la visibilité équitable des sources locales et de langues minoritaires lorsque le modèle interne privilégie l’**anglais** pour ses requêtes secondaires ?
  • quelle transparence attendre sur les critères de sélection et de ranking des sources dans les réponses automatisées ?
  • quelles garanties pour les éditeurs en matière d’attribution, de respect des droits d’auteur et d’accès au trafic généré par des surfaces non traditionnelles ?

Ces interrogations touchent autant aux modèles économiques qu’aux principes d’ouverture et d’équité qui fondent l’écosystème du web et de la recherche.

Conclusion : naviguer dans un paysage de visibilité fragmenté

Les évolutions rapportées cette semaine témoignent d’un paysage de visibilité qui se complexifie : l’interface des résultats change, les modèles d’**IA** influent sur la langue et la sélection des sources, et la valeur d’un site web se discute désormais selon des critères stratégiques plutôt que comme un acquis technique.

Pour les professionnels du contenu et du SEO, l’enjeu consiste à comprendre ces mécanismes pour interpréter correctement les signaux de performance et pour concevoir des contenus susceptibles d’être retenus comme sources pertinentes par des agents automatisés. Le champ de la visibilité s’étend : il ne suffit plus d’optimiser pour une page de résultats classique ; il est désormais pertinent d’observer comment les contenus sont présentés et cités dans les environnements conversationnels et synthétiques.

Ressources complémentaires :


Image principale : TippaPatt/Shutterstock; Paulo Bobita/Search Engine Journal