Ben DAVAKAN

Vous êtes au bon endroit pour concrétiser vos ambitions sur le web. Parlons-en dès maintenant.

Intelligence artificielle et information : un rapport européen met en garde contre sa faible fiabilité

Intelligence artificielle et information : un rapport européen met en garde contre sa faible fiabilité

Intelligence artificielle et information : un rapport européen met en garde contre sa faible fiabilité

Intelligence artificielle et information : un rapport européen met en garde contre sa faible fiabilité

Sommaire

De plus en plus d’utilisateurs se tournent vers ChatGPT, Copilot, Gemini ou Perplexity pour se renseigner. Pourtant, une vaste enquête internationale coordonnée par la BBC et l’Union européenne de radio-télévision (UER) met en lumière des biais profonds dans les réponses proposées par ces systèmes : fabrication d’informations, altérations de faits et références mal attribuées. Ces défaillances remettent en question la fiabilité des outils et pèsent sur la confiance du public et le travail des professionnels de l’information.

Points essentiels à retenir :

  • Près d’une réponse sur deux proposée par les assistants IA contient au moins une erreur notable.
  • Les lacunes en matière d’exactitude et de référencement affectent toutes les langues et régions examinées.
  • Parmi les solutions testées, Google Gemini affiche le taux d’erreurs le plus élevé.
  • Les institutions publiques européennes demandent un suivi indépendant et une régulation renforcée des systèmes d’information IA.

L’intégration de l’IA dans nos pratiques d’information

La montée en puissance de l’IA générative a modifié la manière dont de nombreux usagers recherchent et consomment l’actualité. En 2025, il suffit souvent d’adresser une question à un assistant pour obtenir en quelques instants un résumé d’un événement, une synthèse de reportage ou une mise au point sur un fait politique. Ces services ont progressivement gagné la place autrefois occupée par les moteurs de recherche traditionnels et s’inscrivent désormais dans les habitudes quotidiennes d’une part croissante de la population.

Les chiffres le confirment : selon le Digital News Report 2025 de l’Institut Reuters, environ 15 % des personnes de moins de 25 ans consultent régulièrement des assistants IA pour s’informer, contre 7 % pour l’ensemble des internautes. Cette adoption rapide interroge quant à la manière dont l’information est contrôlée et vérifiée avant d’être restituée par ces outils.

Une enquête du Pew Research Center aux États-Unis montre que l’utilisation des chatbots par les enfants n’est pas marginale : 8 % des parents indiquent que leurs enfants âgés de 5 à 12 ans ont déjà recours à un chatbot, et 3 % parmi les 5–7 ans ont, eux aussi, expérimenté l’IA. Ces éléments soulignent la portée sociale et transgénérationnelle des technologies.

Face à ce constat, une étude internationale conduite par la BBC et l’UER, publiée le 22 octobre 2025, attire l’attention : après avoir réalisé des milliers de vérifications dans 18 pays et 14 langues, les chercheurs concluent que les assistants présentés comme facilitateurs de l’accès à l’information peuvent au contraire tronquer ou déformer le travail journalistique.

Une manipulation systémique de l’information par les modèles

Le protocole mis en place pour l’étude a impliqué 22 radiodiffuseurs publics européens, dont Radio France. Les chercheurs ont soumis quatre plateformes majeures — ChatGPT, Copilot, Perplexity et Gemini — à une série de 30 questions liées à l’actualité, puis soumis près de 3 000 réponses à une évaluation rigoureuse fondée sur plusieurs critères : exactitude factuelle, mise en contexte, séparation entre faits et opinions, et qualité du référencement des sources.

Les conclusions sont préoccupantes : presque la moitié des réponses examinées présentait au moins une anomalie importante. En chiffres, cela se traduit par 45 % de réponses comportant des problèmes significatifs. Dans un cas sur cinq, l’écart relevé était majeur, comprenant des informations dépassées, des éléments inventés ou des citations falsifiées.

Le défaut de référencement apparaît comme un point crucial : 31 % des réponses attribuaient incorrectement ou de façon trompeuse des sources, souvent sans relation directe avec les documents originaux. Ce type d’erreur compromet l’évaluation de la fiabilité et empêche l’utilisateur de vérifier l’origine d’un énoncé.

Performances différenciées : Gemini en retrait

Toutes les plateformes évaluées ont montré des limites, mais les résultats attribués à Google Gemini ont été particulièrement défavorables. Près de trois réponses sur quatre émises par ce modèle étaient jugées erronées ou incomplètes, soit un taux d’erreurs avoisinant les 76 %. Dans certains ensembles de tests, comme ceux menés par Radio France, ce chiffre a même culminé à 93 %.

Un cas exemplaire relevé par l’étude illustre le danger : interrogé au sujet d’une polémique présumée — un salut nazi attribué au milliardaire Elon Musk lors de l’investiture de Donald Trump — Gemini a pris pour source une chronique satirique de France Inter signée Charline Vanhoenacker et l’a présentée comme une information factuelle. Cette confusion entre satire et information factuelle montre à quel point la capacité à reconnaître le registre d’un texte est essentielle pour un assistant censé synthétiser l’actualité.

Parallèlement, Perplexity et ChatGPT ont parfois mélangé faits et opinions ou altéré des citations relatives à des contenus diffusés par des médias publics européens. Si ces erreurs peuvent paraître anecdotiques à première vue, elles ont un impact réel sur la crédibilité des institutions citées et sur la confiance du public.

Conséquences sur la confiance collective et la démocratie

Selon Liz Corbin, directrice de l’information à l’UER, les défaillances observées ne sont pas isolées : elles sont « systémiques, globales et multilingues ». Ce diagnostic met en garde contre un risque majeur : la perte de repères pour les citoyens confrontés à des réponses qui paraissent autorisées mais qui manquent de véracité.

« Ces dysfonctionnements sont répandus à l’échelle mondiale et dans plusieurs langues ; ils constituent une menace pour la confiance du public. Si les individus ne parviennent plus à discerner les sources fiables, le doute s’installe et la confiance collective dans l’information diminue, avec des conséquences politiques potentiellement lourdes. »

Peter Archer, qui pilote les programmes d’IA générative à la BBC, ajoute que ces systèmes « imitent l’autorité du journalisme sans en respecter la rigueur ». Cette imitation sans méthode peut conduire à une dilution des standards professionnels et à une confusion accrue chez le grand public.

Les chercheurs et les responsables de médias soulignent le risque d’un affaiblissement de l’écosystème démocratique : lorsque des outils largement accessibles produisent des informations imprécises ou inventées, la capacité des citoyens à se forger une opinion documentée s’en trouve altérée. La conséquence possible est une défiance généralisée, qui favorise la polarisation et l’ancrage de croyances non étayées.

Vers des mécanismes de contrôle et d’encadrement

Face à ces constats, la BBC et l’UER préconisent des mesures concrètes pour limiter les dérives. Parmi leurs propositions figurent un suivi indépendant et continu des performances des systèmes d’IA générative, l’élaboration d’une taxonomie des biais les plus fréquents, et la publication de recommandations pratiques à destination des équipes de développement pour améliorer la qualité des réponses et la transparence des modèles.

Les auteurs de l’étude insistent également sur la nécessité de s’assurer de la conformité de ces services avec le cadre légal européen, notamment en matière de services numériques et d’intégrité de l’information. Le respect de ces normes ne doit pas être perçu comme une option, mais comme une exigence pour toute solution diffusant ou résumant de l’actualité.

Au-delà de la régulation, les chercheurs recommandent des outils de diagnostic accessibles aux éditeurs et aux organismes de presse, afin qu’ils puissent évaluer rapidement comment leur contenu est repris, transformé ou manipulé par les assistants IA. Un tel dispositif permettrait de mieux protéger la réputation des médias et d’identifier les points de vigilance prioritaires.

Usage professionnel : gains de productivité et vérifications insuffisantes

L’IA générative est devenue un instrument de travail répandu dans de nombreux secteurs : entreprises, marketing, enseignement et recherche. Des professionnels, notamment des rédacteurs et des spécialistes du SEO, s’appuient sur ces outils pour synthétiser des informations, produire des ébauches de contenus, traduire des textes et accélérer des tâches répétitives.

Pourtant, beaucoup d’utilisateurs adoptent ces solutions sans instaurer de routines de vérification systématiques. L’étude révèle que la majorité des personnes interrogées ne consultent pratiquement jamais les liens associés aux résumés d’actualité fournis par les assistants. Cette absence de vérification favorise la propagation d’affirmations inexactes et limite la capacité à corriger les erreurs.

Dans un contexte professionnel, les conséquences peuvent être significatives : des contenus optimisés pour le référencement mais fondés sur des informations erronées peuvent fragiliser la crédibilité d’une organisation. Les journalistes, éditeurs et spécialistes du contenu doivent donc maintenir des standards de vérification rigoureux et considérer l’IA comme un outil d’assistance plutôt que comme une source finale et incontestable.

Origines techniques des biais et pistes d’amélioration

Les erreurs observées ont plusieurs causes techniques et méthodologiques. Primo, les modèles reposent sur des corpus d’entraînement massifs, parfois datés ou mal équilibrés, ce qui peut conduire à produire des informations obsolètes. Secundo, l’architecture des modèles favorise la génération fluide plutôt que la vérification factuelle, d’où des formulations convaincantes mais potentiellement inexactes.

Un autre point critique est le traitement des sources : les assistants peinent souvent à citer précisément l’origine d’un élément, à distinguer entre une anecdote, un commentaire d’opinion ou une dépêche factuelle, et à indiquer le niveau de confiance attaché à une assertion. Enfin, la reconnaissance du registre (satire, parodie, chronique subjective, etc.) reste insuffisante, entraînant des confusions comme celles mises en lumière par l’étude.

Pour améliorer la situation, plusieurs pistes techniques sont évoquées : intégrer des modules de vérification factuelle en temps réel, limiter la propagation d’informations non sourcées, afficher clairement l’incertitude ou la probabilité d’une affirmation, et développer des méthodes de traçabilité permettant de relier chaque énoncé à ses documents d’origine.

Responsabilités des éditeurs, développeurs et plateformes

La mise en œuvre de correctifs exige une combinaison d’initiatives : du côté des éditeurs et des médias, il est primordial de publier des métadonnées claires et structurées pour faciliter la réutilisation correcte de leurs contenus. Les équipes techniques devraient fournir des formats exploitables (par ex. données structurées, horodatage précis, contexte éditorial) qui aident les modèles à comprendre la nature d’un texte.

Du côté des développeurs et des fournisseurs de modèles, des efforts soutenus sont nécessaires pour documenter les limites des systèmes, améliorer les mécanismes de traçabilité et proposer des interfaces qui incitent l’utilisateur à vérifier les sources primaires. Les plateformes qui intègrent ces assistants doivent quant à elles veiller à rendre visibles les informations de provenance et à permettre un retour utilisateur simple et structuré lorsqu’une erreur est détectée.

Ces responsabilités partagées visent à réduire le risque que des contenus déformés se propagent sans contrôle et à préserver la valeur de l’information produite par des professionnels.

Impact pour le SEO et la production de contenu

Les pratiques SEO et la rédaction web sont aussi concernées. Les spécialistes qui se reposent exclusivement sur des résumés générés par ChatGPT ou d’autres assistants IA risquent de diffuser des pages optimisées autour d’informations incomplètes ou incorrectes, avec pour effet d’altérer la qualité globale des contenus disponibles en ligne.

Il est donc recommandé d’intégrer des étapes de contrôle humain dans la chaîne de production : vérification des sources citées, validation des chiffres, croisement des informations et, si nécessaire, suppression d’éléments non confirmés. Sans ces garde-fous, l’optimisation pour les moteurs de recherche pourrait devenir un vecteur de désinformation, en amplifiant des erreurs via le référencement.

Comment les utilisateurs peuvent se prémunir

Les usagers ordinaires ont également un rôle à jouer. Plusieurs pratiques simples améliorent la résilience face aux erreurs des assistants :

  • Consulter systématiquement les sources proposées et vérifier leur authenticité ;
  • Recouper les informations auprès de plusieurs sources indépendantes ;
  • Privilégier les extraits directement liés à des documents officiels ou des dépêches quand cela est possible ;
  • S’interroger sur le registre du texte consulté : satire, opinion ou information ?

Ces réflexes aident à maintenir un niveau de vigilance indispensable lorsque l’on s’appuie sur des outils qui génèrent du contenu automatiquement.

Réponses institutionnelles et perspectives de recherche

Les recommandations émises par la BBC et l’UER incluent la mise en place d’un observatoire indépendant chargé de contrôler en continu la qualité des réponses fournies par les assistants, ainsi que la définition d’une taxonomie des biais récurrents. Ce travail de cartographie permettrait non seulement d’identifier les points faibles des modèles mais aussi d’orienter les efforts de correction.

Sur le plan académique et industriel, des travaux sont en cours pour concevoir des méthodes d’évaluation plus robustes, capables de mesurer non seulement la fluidité linguistique mais aussi la fidélité factuelle et la transparence des sources. Les avancées dans ces domaines devraient permettre, à terme, de concevoir des systèmes mieux outillés pour traiter des contenus d’actualité et des informations sensibles.

La régulation doit accompagner ces progrès techniques : normes de transparence des modèles, exigences de traçabilité et obligations de conformité vis-à-vis des lois relatives aux services numériques et à l’intégrité de l’information sont autant d’outils juridiques susceptibles d’encadrer leur déploiement.

Adoption généralisée versus vérification insuffisante

La diffusion des outils d’IA générative dépasse le simple cadre de la curiosité intellectuelle : ces technologies sont intégrées dans des chaînes de production, des dispositifs pédagogiques et des processus décisionnels. Pour autant, l’ampleur de leur adoption ne s’accompagne pas toujours d’une culture de la vérification.

En pratique, beaucoup d’utilisateurs acceptent les réponses fournies sans en vérifier les sources ou la pertinence contextuelle. Ce comportement est d’autant plus problématique que les assistants proposent souvent des formulations convaincantes, donnant l’illusion d’une fiabilité qui n’est pas toujours justifiée. La tendance à ne pas cliquer sur les références fournies ou à ne pas vérifier la date et l’origine d’une information alimente un cercle vicieux où des erreurs peuvent se consolider et se propager.

Ainsi, même si l’IA apporte des gains de productivité réels pour des tâches répétitives ou analytiques, son intégration sans garde-fous accroît le risque d’une diffusion d’informations déformées à large échelle.

En synthèse

L’étude menée par la BBC et l’UER met en lumière des dysfonctionnements significatifs des assistants IA dans la restitution d’informations d’actualité : erreurs factuelles, citations incorrectes et attribution de sources problématiques. Ces défauts sont répandus et multilingues, et touchent tant les utilisateurs occasionnels que les professionnels.

Pour limiter les risques, une combinaison de mesures est nécessaire : renforcement de la vérification humaine dans les chaînes de production, développement d’outils techniques dédiés à la traçabilité et à la vérification, et mise en place d’un cadre réglementaire garantissant la transparence et la conformité des modèles. À défaut, la confiance du public dans l’information pourrait s’éroder, avec des conséquences potentiellement lourdes pour le débat démocratique.

Enfin, la responsabilité est partagée : éditeurs, développeurs, plateformes et utilisateurs doivent adopter des pratiques de transparence et de vérification afin d’assurer que l’IA reste un outil d’appui fiable et non une source d’incertitude généralisée.