Google vient d’introduire un nouveau robot documenté : GoogleBot Messages. Sa fonction principale est de récupérer les éléments nécessaires pour créer les **aperçus** (previews) lorsqu’une URL est partagée dans l’application de messagerie de Google.
Points essentiels à connaître
- Google Messages utilise désormais un robot spécifique identifiable via le User-Agent « GoogleMessages ».
- Ce fetcher est chargé de constituer automatiquement les **aperçus** visuels des liens insérés dans les conversations.
- La présence de cette information dans la documentation permet aux propriétaires de sites et aux webmasters d’identifier et d’analyser ce type de trafic dans leurs logs serveur.
Un robot dédié aux aperçus partagés dans Google Messages
Google a ajouté à sa liste de robots « déclenchés par l’utilisateur » un nouvel agent chargé d’alimenter les vignettes de lien dans son application de messagerie. Concrètement, lorsque quelqu’un copie-colle ou partage une URL dans Google Messages, c’est ce robot qui effectue la requête pour extraire les éléments utiles à l’affichage : le titre, la description et l’image de prévisualisation (thumbnail).
Le User-Agent renvoyé pour ces appels est identifié simplement comme « GoogleMessages », ce qui facilite la détection de ces requêtes dans vos logs serveur et permet de les distinguer d’autres accès.

Pourquoi Google a documenté ce robot maintenant
La mise à jour de la page développeurs a pour objectif d’apporter de la clarté aux administrateurs de sites. En identifiant explicitement les requêtes provenant de Google Messages, les équipes techniques peuvent différencier le trafic automatique généré pour les **aperçus** des visites réelles d’utilisateurs humains. Cette distinction est utile pour éviter de fausser les statistiques, adapter les règles de filtrage et optimiser la configuration serveur.
Comment fonctionne concrètement le récupérateur d’aperçus
Le processus est relativement simple et s’apparente à celui des autres services qui génèrent des prévisualisations : lorsqu’un lien est détecté dans une conversation, le service émet une requête HTTP vers l’URL pour récupérer les balises pertinentes. Voici les points techniques clés :
- La requête est effectuée par un fetcher identifié via le User-Agent « GoogleMessages ».
- Le robot recherche prioritairement les balises Open Graph (og:title, og:description, og:image), puis les métadonnées standard () et enfin le contenu de la page si nécessaire.
- Il prend en compte les entêtes HTTP (caching, content-type, etc.) pour déterminer si la ressource doit être téléchargée intégralement, mise en cache ou ignorée.
- Dans certains cas, le fetcher peut suivre des redirections (3xx) pour atteindre la ressource finale.
La logique suit donc les mêmes principes que celle des autres user-triggered fetchers documentés par Google, mais adaptée aux besoins d’affichage rapide dans une interface de messagerie.
Que récupère exactement le robot ?
Pour créer un aperçu pertinent, le fetcher tente d’obtenir :
- Le titre (preferablement via og:title ou la balise <title>)
- La description (via og:description ou <meta name= »description »>)
- L’image de prévisualisation (via og:image)
- Les informations de langue et encodage, qui aident à choisir la bonne version du contenu
Si certaines balises manquent, le fetcher peut se rabattre sur le contenu de la page pour extraire un extrait textuel ou une image, mais les résultats seront alors moins prévisibles.
Quelles conséquences pour les propriétaires de sites et le SEO
L’apparition de ce robot a plusieurs implications pratiques :
1. Impact sur l’analyse du trafic
Les requêtes initiées par le fetcher apparaissent dans vos logs serveur et peuvent être comptées comme des visites si votre outil d’analyse ne filtre pas les User-Agent automatisés. Il est donc recommandé d’identifier et d’isoler ce trafic pour conserver des statistiques d’usage précises.
Exemples de filtres à appliquer :
- Dans vos logs Apache/Nginx, rechercher les occurrences du User-Agent « GoogleMessages ». Exemple regex simplifié :
GoogleMessages - Dans Google Analytics / Matomo, créer un segment ou un filtre qui exclut les hits provenant d’un User-Agent correspondant.
2. Performance serveur et cache
Les fetchers effectuent des requêtes fréquentes, parfois massives si un lien est relayé par de nombreux utilisateurs. Pour limiter l’impact :
- Configurer correctement les en-têtes Cache-Control et Expires pour permettre la mise en cache des réponses.
- Servir des images de taille optimisée pour les aperçus (og:image) afin de réduire le poids des requêtes.
- Mettre en place des règles de mise en cache côté CDN pour absorber les pics de trafic induits par ces fetchers.
3. Contrôle via robots.txt et entêtes
Contrairement aux robots indexeurs classiques, un fetcher destiné à produire des aperçus peut être perçu comme un service d’affichage plutôt que d’indexation. Si vous souhaitez limiter ces requêtes, plusieurs options s’offrent à vous :
- Bloquer le User-Agent « GoogleMessages » via robots.txt : attention, cela empêchera le fetcher d’accéder au contenu pour générer une vignette.
- Utiliser les entêtes HTTP (ex. X-Robots-Tag: noindex) pour indiquer des instructions d’indexation sans empêcher l’accès.
- Retourner un en-tête spécifique ou une miniature optimisée pour les fetchers, de sorte que la charge soit minimale.
Note : bloquer le robot dans robots.txt n’empêche pas nécessairement l’affichage d’une preview basique (selon comment le service est construit) mais empêche l’accès complet aux ressources.
Comment détecter les requêtes de Google Messages dans vos logs
La détection repose principalement sur l’examen du User-Agent enregistré. Voici quelques approches pratiques :
Analyse des logs bruts
Dans les logs Apache/Nginx, recherchez des lignes contenant « GoogleMessages ». Exemple de commande :
grep -i "GoogleMessages" access.log
Vous pouvez également extraire des statistiques temporelles pour visualiser l’évolution du trafic lié au fetcher.
Filtres analytiques
Dans vos outils d’analyse web, créez un filtre basé sur le User-Agent pour isoler ce trafic. Ceci permet :
- De ne pas fausser les taux de rebond ni la durée moyenne des sessions.
- D’éviter de compter ces hits comme des conversions ou des pages vues actives.
Bonnes pratiques pour optimiser l’affichage des aperçus
Pour que les partages dans Google Messages affichent un aperçu pertinent et esthétiquement correct, suivez ces recommandations :
- Définissez explicitement les balises Open Graph : og:title, og:description, og:image.
- Privilégiez une image d’au moins 1200 x 630 px pour une bonne compatibilité, tout en créant une version allégée pour les fetchers.
- Spécifiez la langue via lang et les métadonnées pour que la prévisualisation affiche le bon contenu linguistique.
- Utilisez des tailles d’image et des formats modernes (WebP) si possible, avec fallback JPEG/PNG.
En mettant en place ces éléments, vous améliorez la façon dont vos liens sont présentés lorsque des utilisateurs les partagent dans des conversations, ce qui peut influencer la perception et le taux de clics.
Aspects liés à la confidentialité et à la sécurité
Les fetchers engagés pour créer des aperçus ne collectent pas d’informations personnelles des utilisateurs ; ils se contentent d’accéder aux pages publiques. Cependant, quelques points de vigilance :
- Évitez d’exposer des contenus sensibles accessibles via une URL non protégée si vous ne souhaitez pas qu’ils apparaissent en aperçu.
- Pour des pages nécessitant authentification, assurez-vous que le comportement par défaut renvoie un code de statut adapté (401/403) au lieu de laisser le contenu visible.
- Vérifiez la configuration des redirections et des pages de prévisualisation pour éviter la fuite d’informations.
Scénarios spécifiques et recommandations
Vous ne voulez pas d’aperçu pour certaines pages
Si vous préférez empêcher la génération d’aperçus pour certaines URL (ex. pages admin, contenu restreint), deux approches possibles :
- Restreindre l’accès par authentification : les fetchers publics ne pourront pas récupérer le contenu.
- Utiliser des directives côté serveur (ex. en-tête HTTP X-Robots-Tag: noindex) et/ou bloquer le User-Agent du fetcher via robots.txt si nécessaire.
Vous constatez une hausse soudaine de requêtes
Une hausse peut résulter d’un lien largement partagé. Pour gérer cela :
- Mettre en place du rate limiting ou des règles CDN pour lisser la charge.
- Activer la mise en cache côté serveur pour les routes fréquemment consultées par les fetchers.
Différences entre ce fetcher et les robots d’indexation classiques
Il est utile de distinguer plusieurs catégories d’agents :
- Robots d’indexation (ex. Googlebot) : parcourent le web pour indexer et classer le contenu.
- Fetchers déclenchés par l’utilisateur : effectuent des requêtes ponctuelles lorsque l’utilisateur demande une action (prévisualisation, rendu d’aperçus).
- Autres services automatisés (agrégateurs, scrapers) : comportent des objectifs variés et peuvent avoir des User-Agent différents.
Le fetcher de Google Messages appartient à la seconde catégorie : son objectif n’est pas l’indexation systématique mais la réponse rapide à une interaction utilisateur.
Exemples pratiques et commandes utiles
Filtrer les logs Nginx
Commande pour extraire les requêtes contenant le User-Agent « GoogleMessages » :
grep -i "GoogleMessages" /var/log/nginx/access.log | awk '{print $1, $4, $7, $12}'
Cette commande permet d’obtenir l’IP, la date, l’URL et le champ User-Agent pour chaque ligne correspondante.
Règle robots.txt (exemple)
Si vous choisissez de bloquer explicitement le User-Agent (notez les effets secondaires), vous pouvez ajouter :
User-agent: GoogleMessages
Disallow: /chemin-a-proteger/
Attention : tous les agents respectent ou non les directives selon leur conception. De plus, bloquer le robot empêchera la génération d’aperçus pour ces URLs.
Bonne pratique : tester vos aperçus
Avant d’estimer l’impact d’une configuration, testez comment votre contenu est interprété par les services de prévisualisation. Vous pouvez utiliser des outils comme les débogueurs Open Graph, les outils développeurs fournis par les réseaux sociaux, et vérifier vos logs serveur pour confirmer la nature des requêtes.
Conséquences possibles pour la stratégie de contenu
La manière dont vos pages apparaissent lorsqu’elles sont partagées influe sur le taux de clics et sur la perception de la marque. Quelques conseils éditoriaux :
- Soignez les titres et descriptions pour qu’ils restent concis et informatifs au format d’aperçu.
- Choisissez des images représentatives mais optimisées pour ne pas ralentir le fetcher.
- Testez les extraits sur différents services pour garantir une présentation cohérente.
Questions fréquentes (FAQ technique)
Le fetcher indexe-t-il mon site ?
Non, le rôle principal du fetcher GoogleMessages est de récupérer les informations nécessaires à l’affichage d’un **aperçu** dans l’application de messagerie. Ce comportement n’implique pas nécessairement une indexation complète par Google ; l’indexation relève des robots indexeurs classiques comme Googlebot.
Dois-je modifier mes métadonnées ?
Oui, il est recommandé d’ajouter ou d’améliorer les balises Open Graph pour s’assurer que les aperçus contiennent les informations souhaitées. Ces balises donnent des résultats plus prévisibles que l’extraction automatique du contenu.
Puis-je empêcher uniquement ce fetcher sans impacter Googlebot ?
Techniquement oui, en ciblant le User-Agent « GoogleMessages » dans des règles spécifiques (robots.txt, configurations serveur, scripts de blocage). Toutefois, il faut peser les avantages et inconvénients : bloquer le fetcher supprime l’aperçu dans Google Messages, ce qui peut réduire la clarté du partage et le taux de clics.
Synthèse et recommandations pour les administrateurs
La documentation officielle de Google concernant ses robots déclenchés par utilisateur vise à améliorer la visibilité et la gestion de ce trafic pour les équipes techniques. Pour récapituler :
- Identifiez les requêtes en recherchant le User-Agent « GoogleMessages » dans vos logs serveur.
- Filtrez ce trafic dans vos outils analytiques si vous souhaitez conserver des métriques centrées sur l’expérience humaine.
- Optimisez vos balises Open Graph (og:title, og:description, og:image) pour garantir des aperçus pertinents.
- Contrôlez la charge via des entêtes de cache, des CDN ou des règles de rate limiting pour éviter des surcharges ponctuelles.
- Si nécessaire, bloquez ou restreignez l’accès à l’aide de robots.txt ou d’autres mécanismes, en étant conscient des effets sur l’affichage des aperçus.
En adoptant ces pratiques, vous pourrez gérer efficacement les interactions entre votre site et le nouvel agent de prévisualisation de Google Messages, tout en préservant la qualité de l’expérience pour les utilisateurs et la précision de vos données d’analyse.
Pour aller plus loin
La page officielle listant les robots déclenchés par l’utilisateur fournit des détails complémentaires sur les comportements attendus et les meilleures pratiques à suivre pour les administrateurs techniques. Consultez la ressource développeurs pour des informations à jour et des précisions sur les autres fetchers documentés :
Documentation Google — fetchers déclenchés par l’utilisateur
Articles connexes
- liste de contrôle SEO pour WordPress : préparez-vous au lancement du site via @sejournal, @MattGSouthern
- En 2025, presque la moitié des experts SEO achètent des liens
- Google met en place des boucles sans fin de redirections 301 pour la documentation manquante
- nous passons à un web destiné aux intelligences artificielles et à leurs agents
- de quelle manière l’intelligence artificielle sélectionne ses sources d’information
- Google cesse de prendre en charge les données structurées pour les exercices pratiques dans la recherche
- Copilot Checkout et Brand Agents : la solution de Microsoft pour les achats assistés par l’IA
- Ce que les spécialistes SEO doivent savoir sur les limites de l’IA
