Lors d’un entretien récent accordé à la BBC, Sundar Pichai a insisté sur le fait que l’**IA** n’est pas une source d’information autonome. Il a souligné que l’**IA** fonctionne en complément de la recherche et que chacune de ces technologies a sa finalité. Sundar Pichai a également précisé que l’**IA** ne se substitue ni à la recherche, ni à l’ensemble de l’écosystème d’information, ni aux vrais spécialistes qui détiennent un savoir approfondi sur des sujets précis.
Plusieurs messages sur les réseaux sociaux et articles ont déformé ou simplifié à l’extrême les propos de Sundar Pichai, à l’image d’un post de BBC News résumant l’entretien par la phrase : « Don’t blindly trust what AI tells you. » Cette formulation a été reprise en titres et partages qui laissent entendre que Sundar Pichai aurait sommairement demandé de ne pas faire confiance à l’**IA**. Or, l’explication complète qu’il a donnée montre une vision plus nuancée : l’**IA** ne doit pas être considérée comme l’unique point d’accès à la vérité, car l’écosystème d’information est plus vaste que cela.
Publication de BBC News
Don’t blindly trust what AI tells you, says Google’s Sundar Pichai https://t.co/h3yuTJnNOV
— BBC News (UK) (@BBCNews) November 18, 2025
Cette présentation, très concise, peut laisser croire que Sundar Pichai a prononcé un verdict simple du type « ne faites pas confiance à l’**IA** ». La teneur complète de ses réponses montre toutefois qu’il s’agissait d’un message plus sophistiqué : l’**IA** est une composante au sein d’un cadre plus large d’outils et de sources qui fondent la vérité et la fiabilité des informations.
L’IA commet des erreurs — c’est là que le grounding intervient
Dans l’entretien, Sundar Pichai avait d’abord évoqué la manière dont l’**IA** pourrait, dans les années à venir, ouvrir de nouvelles perspectives et générer des emplois nouveaux, en particulier pour des activités créatives ou complémentaires à la technologie — il a notamment cité l’exemple d’imaginer un long métrage à l’aide d’outils d’**IA**. Cette projection vers le futur a été suivie d’une série de questions de l’intervieweur visant la fiabilité actuelle de ces systèmes : la discussion a ainsi opposé une vision prospective (comment l’**IA** sera utilisée) à une interrogation plus immédiate (les réponses de l’**IA** sont-elles véridiques à l’instant T ?).
L’intervieweur a multiplié les variations d’un même interrogatif centré sur la fiabilité :
- Est-ce que l’**IA** est fiable ?
- Est-ce que l’**IA** n’affaiblit pas la fiabilité de l’information ?
- Ne devrait-on pas tenir Google pour responsable puisque ce type de modèle est né sous votre direction ?
Sundar Pichai a répondu en replaçant constamment l’**IA** dans un contexte plus large :
- L’**IA** n’est pas le seul système mobilisé par les personnes.
- La recherche et d’autres sources ancrées dans des faits demeurent essentielles.
- Le journalisme, les médecins, les enseignants et d’autres spécialistes jouent un rôle déterminant.
- L’écosystème d’information dépasse la seule technologie IA.
L’image qu’il a utilisée implicitement pour expliquer sa position était celle d’un « arbre » (l’**IA**) au sein d’une « forêt » (l’écosystème d’information) : l’intervieweur cherchait à analyser l’arbre isolément, tandis que Sundar Pichai insistait pour parler de la forêt entière afin de mieux éclairer la place de la technologie.
L’un des points fondamentaux qu’il a rappelés porte sur la nature statistique des modèles génératifs : ils prédisent la suite la plus plausible de mots ou d’éléments en fonction de leur entraînement, mais ils ne disposent pas d’un accès inhérent à une « source de vérité ». Pour pallier cette limite, des mécanismes de grounding sont employés — processus consistant à ancrer les sorties de l’**IA** sur des faits vérifiables, souvent en faisant appel à des outils de recherche ou des bases de données fiables.
« Look, we are working hard from a scientific standpoint to ground it in real world information. And there are areas, part of what we’ve done with Gemini is we’ve brought the power of Google Search. So it uses Google Search as a tool to try and answer, to give answers more accurately. But there are moments, these AI models fundamentally have a technology by which they’re predicting what’s next, and they are prone to errors. »
Dans ce passage, Sundar Pichai explique que l’équipe travaille à « grounding » l’**IA** dans des informations vérifiables et que certains modèles, comme Gemini, intègrent la puissance de la recherche pour améliorer la précision des réponses. Il ajoute cependant qu’il existe des moments où les modèles commettent des erreurs, en raison de la méthode même par laquelle ils génèrent du texte (prédiction statistique).
Employer chaque outil selon ses atouts
La suite de l’entretien met en lumière une recommandation pratique : considérer l’**IA** et la recherche comme des outils complémentaires, et les utiliser selon les objectifs recherchés. La logique est simple et utile : certains outils excellent pour la créativité et la synthèse, d’autres pour l’exactitude factuelle et la vérification.
« Today, I think, we take pride in the amount of work we put in to give as accurate information as possible. But the current state-of-the-art AI technology is prone to some errors. This is why people also use Google Search, and we have other products which are more grounded in providing accurate information, right? But the same tools are helpful if you want to creatively write something. So you have to learn to use these tools for what they’re good at and not blindly trust everything they say. »
Dans ce passage, Sundar Pichai invite à une lecture nuancée : l’**IA** peut être très utile pour générer des idées, rédiger des ébauches, stimuler la créativité, ou encore automatiser certains processus, tandis que la recherche et les services conçus pour la vérification factuelle continuent d’être mobilisés pour confirmer des informations sensibles ou critiques.
Cette recommandation suppose aussi une responsabilité partagée entre fournisseurs de technologie, journalistes, spécialistes et utilisateurs finaux. Les entreprises qui développent des modèles doivent améliorer les systèmes de grounding et de transparence ; les professionnels de l’information doivent préserver des standards élevés de vérification ; et les utilisateurs doivent apprendre à exploiter chaque outil pour ce qu’il fait le mieux, sans lui attribuer une fiabilité absolue.
Pas un système unique : l’écosystème d’information est central
L’intervieweur a repris l’argument selon lequel il faut éviter la confiance aveugle, puis a renouvelé la pression en pointant la responsabilité de l’organisation qui a vu naître la famille des modèles « transformer ». Il a demandé si la prolifération de ces technologies n’entraînerait pas in fine une baisse de la fiabilité des informations disponibles.
« OK, don’t blindly trust. But let me suggest to you that you have a special responsibility because this whole model, type of model, transformer model, the T in ChatGPT, was invented here under you. And you know that it’s a probability. And I just wonder if you accept the end result of all this fantastic investment is the information is less reliable? »
La réponse de Sundar Pichai a été de remettre l’accent sur le fait que l’**IA** ne représente qu’une source d’information parmi d’autres. Il a expliqué que si l’on construisait des systèmes autonomes et qu’on se reposait exclusivement sur eux, on s’exposerait à des risques de fiabilité. Mais l’intention qu’il décrit est plutôt de faire en sorte que l’**IA** s’intègre à un ensemble de ressources — sources humaines et techniques — qui forment un cadre d’information riche et équilibré.
« I think if you only construct systems standalone, and you only rely on that, that would be true. Which is why I think we have to make the information ecosystem… has to be much richer than just having AI technology being the sole product in it. …Truth matters. Journalism matters. All of the surrounding things we have today matters, right? So if you’re a student, you’re talking to your teacher. If as a consumer, you’re going to a doctor, you want to trust your doctor. Yeah, all of that matters. »
Par ces propos, Sundar Pichai affirme que l’**IA** n’est pas conçue pour remplacer le savoir humain ; les enseignants, médecins, journalistes et autres praticiens gardent un rôle de premier plan pour garantir l’exactitude et l’intégrité des informations. Cette position traduit une vision volontiers complémentaire : la technologie apporte des capacités nouvelles, mais les critères rigoureux de vérification et l’autorité des experts conservent tout leur sens.
La conséquence logique est qu’on ne doit pas réduire l’intervention de Sundar Pichai à une formule sensationnaliste du type « ne faites pas confiance à l’**IA** ». Son propos est plutôt de rappeler que, pour lui comme pour Google, l’**IA** est un outil parmi d’autres au service d’un écosystème d’information complexe.
Extrait pertinent de l’entretien autour de la marque des 10 minutes :
Image mise en avant : capture d’écran
Au-delà de la reformulation des propos, il est utile d’analyser certaines implications concrètes, techniques et éthiques de cette discussion, afin de mieux comprendre comment l’**IA**, la recherche et les sources humaines interagissent dans les pratiques actuelles de production et de diffusion de l’information.
Les limites techniques des modèles génératifs
Pour saisir pourquoi l’**IA** peut produire des erreurs, il faut revenir à son fonctionnement de base. Les modèles génératifs — dont la famille des modèles « transformer » — sont entraînés sur de larges ensembles de données et apprennent à estimer la « prochaine séquence » la plus probable. Ils ne disposent pas, par défaut, d’un mécanisme inhérent de vérification factuelle ou d’une base de référence unique garantissant la vérité. Cela explique plusieurs phénomènes :
- Les hallucinations : production d’informations inventées ou inexactes qui semblent plausibles mais ne reposent sur aucune source vérifiable.
- L’obsolescence : si les données d’entraînement ne sont pas continuellement mises à jour, un modèle peut refléter des connaissances dépassées.
- Le biais : les données d’entraînement peuvent contenir des biais qui se transmettent aux sorties du modèle.
- L’ambiguïté : face à des demandes vagues, le modèle génère des réponses qui maximisent la probabilité linguistique plutôt que l’exactitude factuelle.
C’est pourquoi des mécanismes complémentaires sont essentiels : indexation de contenus fiables, accès en temps réel à des bases de données, citations de sources vérifiables, et dispositifs de grounding qui permettent d’ancorer les réponses sur des éléments factuels accessibles.
Qu’est-ce que le grounding ?
Le terme grounding désigne l’ensemble des procédés visant à relier la sortie d’un modèle génératif à des informations confirmées et traçables. Concrètement, cela peut inclure :
- L’intégration d’API de recherche pour récupérer des sources en ligne et citer des références.
- L’utilisation de bases de données structurées (encyclopédies, registres officiels, publications scientifiques) pour valider des faits.
- La mise en place de chaînes de vérification automatisées et humaines pour contrôler les réponses avant diffusion.
- La transparence sur les limites du modèle et l’indication explicite quand une information n’est pas confirmée.
Dans l’interview, Sundar Pichai évoque précisément l’intégration de la puissance de la recherche dans Gemini afin d’améliorer cette ancrage factuel. Cet exemple illustre la tendance actuelle : rapprocher modèles génératifs et systèmes de recherche afin de combiner créativité et exactitude.
Cas d’usage : quand privilégier la recherche et quand mobiliser l’IA
Un choix raisonné d’outil dépend du but visé. Voici quelques scénarios typiques et l’outil le plus approprié :
- Vérification d’un fait médical ou d’un traitement : privilégier des sources médicales spécialisées et la parole d’un professionnel (médecin). L’**IA** peut synthétiser des informations, mais la confirmation par un expert est indispensable.
- Recherche d’un texte juridique précis ou d’un précédent légal : s’appuyer sur des bases de données juridiques et sur la recherche spécialisée.
- Rédaction créative, génération d’idées, esquisses de projets artistiques : l’**IA** est particulièrement efficace pour accélérer le processus et proposer des pistes.
- Veille factuelle et information d’actualité : combiner l’**IA** pour agréger et synthétiser, avec des sources fiables et des pratiques journalistiques pour la vérification.
La logique sous-jacente est d’utiliser chaque outil pour ses forces et de ne pas substituer un unique mécanisme à l’ensemble des autres ressources qui composent l’écosystème d’information.
Responsabilité et transparence : enjeux pour les entreprises et les médias
L’insistance de l’intervieweur sur la responsabilité de l’organisation qui a vu émerger ces modèles (« vous avez une responsabilité particulière ») met en lumière une question importante : quelle responsabilité assument des entreprises comme Google dans la diffusion d’outils susceptibles d’influencer massivement l’accès à l’information ?
Plusieurs dimensions doivent être prises en compte :
- La transparence : indiquer clairement quand une réponse provient d’un modèle génératif, quelles sources ont été consultées, et quelles limites demeurent.
- Le contrôle qualité : déployer des systèmes de grounding, d’évaluation humaine, et de mises à jour régulières des données.
- L’éthique : anticiper les impacts sur l’emploi, la désinformation, et la concentration des capacités techniques au sein de quelques acteurs majeurs.
- La collaboration : travailler avec des institutions académiques, des médias, et des ONG pour définir des standards de fiabilité et de responsabilité.
Pour Sundar Pichai, ces aspects expliquent en partie pourquoi l’**IA** doit être intégrée dans un cadre plus large où le journalisme et l’expertise humaine sont des garde-fous essentiels.
Comment les médias ont simplifié le message
La couverture médiatique de l’entretien a parfois privilégié des titres accrocheurs ou des extraits susceptibles d’attirer l’attention plutôt qu’une présentation nuancée des propos. C’est une pratique commune : un résumé bref peut être plus viral, mais il risque d’omettre le contexte critique qui transforme le sens d’une phrase.
Dans ce cas précis, la tournure « don’t blindly trust what AI tells you » rendait un message partiel et potentiellement trompeur. Le propos complet de Sundar Pichai n’était pas d’interdire l’usage de l’**IA**, mais d’appeler à une intégration intelligente de l’**IA** dans un réseau plus large de vérification et de connaissances.
Conséquences pour les usagers : bonnes pratiques
Pour les personnes qui utilisent aujourd’hui des systèmes d’**IA**, plusieurs règles simples et pragmatiques découlent de cet entretien :
- Considérer l’**IA** comme un assistant plutôt que comme une autorité absolue.
- Vérifier les faits importants en consultant des sources fiables ou des spécialistes.
- Exiger la transparence sur l’origine des informations produites par les modèles (quels documents ou bases ont été consultés ?).
- Recourir à la recherche et aux outils de grounding lorsque la précision est cruciale.
- Conserver un esprit critique face aux réponses qui paraissent trop assurées, surtout sur des sujets sensibles.
Ces pratiques ne sont pas des interdictions d’utiliser l’**IA**, mais des recommandations pour exploiter ses bénéfices tout en limitant les risques liés aux erreurs et aux biais.
Le rôle des experts et du journalisme
Un point récurrent chez Sundar Pichai est la réaffirmation de l’importance des experts — enseignants, médecins, chercheurs — et du journalisme dans la formation d’un socle d’information fiable. Ces professions remplissent des fonctions que la technologie peine à remplacer :
- Évaluation critique et contextualisation des faits.
- Choix éditorials responsables et transparents.
- Contrôle déontologique et normes professionnelles.
- Dialogue humain et prise en compte de situations complexes.
En d’autres termes, l’**IA** doit être vue comme un multiplicateur d’efficience pour ces métiers, et non comme un substitut. Lorsque des décisions importantes reposent sur l’information (santé, droit, éducation), la validation humaine doit rester la règle.
Perspectives : amélioration continue et coopération
Les propos de Sundar Pichai décrivent un horizon dans lequel les technologies s’améliorent grâce à la recherche, au retour d’expérience et à la coopération entre acteurs. Deux tendances principales ressortent :
- Renforcement des mécanismes de grounding : intégration plus étroite entre modèles génératifs et indices factuels en temps réel.
- Normes et standards partagés : développement de meilleures pratiques et de standards industriels pour la transparence, l’évaluation et la responsabilité.
Ces évolutions nécessitent un dialogue continu entre entreprises technologiques, institutions publiques, médias et société civile pour s’assurer que les innovations servent un objectif d’utilité publique et de fiabilité informationnelle.
Conclusion — une lecture nuancée des propos de Sundar Pichai
Réduire l’intervention de Sundar Pichai à la simple phrase « ne faites pas confiance à l’**IA** » revient à ignorer la substance de sa réflexion. Il n’a pas invité à rejeter la technologie ; il a rappelé que l’**IA** doit fonctionner au sein d’un écosystème d’information riche où la recherche, le journalisme et les experts jouent un rôle essentiel pour garantir la vérité et la fiabilité.
L’interview met en lumière trois messages complémentaires :
- L’**IA** est utile et prometteuse, notamment pour la créativité et l’automatisation de tâches.
- Les modèles génératifs ont des limites techniques (hallucinations, biais, obsolescence) qui demandent des mécanismes de grounding et de vérification.
- La responsabilité collective — entre développeurs, médias, institutions et usagers — reste cruciale pour maintenir une information de qualité.
En fin de compte, la question n’est pas de savoir s’il faut « faire confiance » ou non à l’**IA**, mais plutôt comment organiser un système d’information robuste où l’**IA** coexiste avec la recherche, les sources fiables et les experts, afin d’améliorer la qualité et l’utilité des connaissances mises à disposition du public.
Remarque : le lecteur retrouvera l’extrait évoqué plus haut aux alentours de la dixième minute de l’entretien intégré ci-dessus.
Articles connexes
- goossips seo : concurrence entre pages et impact sur le nombre d’affichages – abondance
- goossips seo : analyser le LCP avec la Search Console de Google
- Adobe présente LLM Optimizer, un outil pour améliorer le référencement sur ChatGPT
- Google supprime le paramètre num=100 : une modification qui perturbe le référencement naturel
- les synthèses de l’ia face au référencement : convergence, chiffres et stratégies
- évaluer la perte de parts de marché des produits biologiques
- questions-réponses SEO et UX — réponses en direct aux questions que vous n’osez pas poser sur LinkedIn
- Microsoft Copilot : moteur de recherche alimenté par l’IA, références enrichies et navigation plus fluide
