Ben DAVAKAN

Vous êtes au bon endroit pour concrétiser vos ambitions sur le web. Parlons-en dès maintenant.

Google Ads utilise un nouveau modèle d’IA pour repérer les annonceurs frauduleux

Google Ads utilise un nouveau modèle d’IA pour repérer les annonceurs frauduleux

Google Ads utilise un nouveau modèle d’IA pour repérer les annonceurs frauduleux

Google Ads utilise un nouveau modèle d’IA pour repérer les annonceurs frauduleux

Sommaire

Google a publié un article de recherche présentant un nouveau modèle d’intelligence artificielle dédié à la **détection de la fraude** au sein de la plateforme **Google Ads**. Daté du 31 décembre 2025, ce document indique que le modèle est déjà déployé en production et qu’il apporte une amélioration substantielle par rapport aux mécanismes antérieurs : un gain de plus de 40 points de pourcentage en taux de rappel sur une politique critique, ainsi qu’une **précision** atteignant 99,8 % pour certaines règles spécifiques.

ALF : le « Advertiser Large Foundation Model » expliqué

Le nouvel algorithme se nomme **ALF** (pour Advertiser Large Foundation Model). Il s’agit d’un **modèle multimodal** de grande envergure capable d’analyser simultanément des éléments textuels, des images et des vidéos, tout en intégrant des signaux structurés tels que l’ancienneté d’un compte, les informations de facturation et des métriques historiques de performance.

Les auteurs du rapport soulignent que la valeur prédictive de nombreux signaux est faible lorsqu’ils sont considérés individuellement. En revanche, la conjonction de plusieurs indicateurs — créatifs, données de compte, comportement transactionnel — permet de mieux cerner l’intention d’un annonceur et d’identifier des schémas susceptibles d’indiquer une activité frauduleuse.

Ils expliquent ainsi :

« Un défi central dans cet écosystème consiste à appréhender avec précision et efficience l’intention et le comportement des annonceurs. Cette compréhension est essentielle pour des applications clés, comme le ciblage des utilisateurs par les annonces et la détection de fraudes ou de violations de politiques.

Pour y parvenir, il faut une approche holistique qui traite des types de données variés : des informations structurées de compte (par exemple, l’âge du compte, les éléments de facturation), des contenus publicitaires multimodaux (texte, images, vidéos) et le contenu des pages d’atterrissage.

Par exemple, un annonceur peut avoir un compte récemment créé, diffuser des annonces textuelles et visuelles mentionnant une grande marque connue et enregistrer un refus de paiement par carte. Chacun de ces éléments, isolément, peut paraître bénin ; leur combinaison peut en revanche indiquer une opération frauduleuse. »

Trois défis majeurs abordés par ALF

Les chercheurs identifient trois limites des systèmes antérieurs que **ALF** cherche à surmonter :

1. Données hétérogènes et de très haute dimension

Le terme « données hétérogènes » renvoie à la diversité des formats d’information associés aux annonceurs. Au-delà des valeurs structurées (âge du compte, méthodes de paiement, historique de facturation), il existe des ressources non structurées comme les textes publicitaires, les images et les vidéos. Toutes ces sources doivent être traitées conjointement.

La notion de « haute dimension » concerne le nombre important de variables et de caractéristiques potentielles — souvent des centaines voire des milliers — qui décrivent chaque annonceur. Représenter mathématiquement un tel profil revient à travailler dans un espace de très grande dimension, ce qui complique l’entraînement et la généralisation des modèles classiques. **ALF** adopte des architectures et des stratégies de fusion de signaux conçues pour gérer cette complexité, en produisant des embeddings robustes permettant une comparaison cohérente entre annonceurs.

2. Ensembles non bornés d’actifs créatifs

Un annonceur peut posséder des milliers d’actifs créatifs (images, vidéos, variantes textuelles). Parmi eux, il est possible de dissimuler une ou deux pièces malveillantes au milieu d’un grand volume d’actifs apparemment innocents. Les approches précédentes, qui pouvaient analyser un nombre restreint d’éléments ou se focaliser sur des moyennes, échouaient souvent à détecter des anomalies rares mais critiques.

**ALF** se conçoit pour traiter des ensembles d’actifs de taille variable et pour accentuer l’importance d’éléments atypiques qui pourraient signaler une tentative de fraude, notamment via des mécanismes d’attention et d’agrégation qui priorisent les signaux anormaux au sein d’un grand nombre d’exemples.

3. Fiabilité opérationnelle et confiance des scores

Dans un contexte de modération automatisée, il est essentiel que les scores de risque produits par le modèle soient interprétables et fiables. Un taux élevé de faux positifs pénaliserait des annonceurs légitimes ; à l’inverse, des faux négatifs laisseraient passer des acteurs malveillants. Le système doit conserver une stabilité opérationnelle sur le long terme sans nécessiter de réajustements constants.

Les auteurs insistent sur l’importance d’une calibration prudente des probabilités et de mécanismes de validation continue afin que la **confiance** quant à la malveillance soit bien corrélée avec la réalité du comportement de l’annonceur.

Respect de la confidentialité et protection des données

Bien que **ALF** exploite des signaux sensibles (par exemple l’historique de facturation et d’autres métadonnées de compte), le rapport précise que le traitement s’effectue dans un cadre strict de confidentialité. Avant d’être ingérés par le modèle, les éléments d’**information personnellement identifiable (PII)** sont supprimés afin d’éviter toute identification directe d’individus.

Concrètement, le modèle détecte des motifs comportementaux plutôt que d’apprendre sur des identités. Les auteurs détaillent des mesures d’anonymisation et des garde-fous garantissant que l’analyse repose sur des attributs agrégés et des embeddings anonymes, et non sur des données nominatives.

La méthode clé : repérer les anomalies par comparaison

Pour améliorer sa capacité à identifier des comportements atypiques, **ALF** utilise une stratégie baptisée « Inter-Sample Attention ». Plutôt que d’examiner un annonceur isolément, le modèle traite des « lots importants d’annonceurs » simultanément et met en relation leurs représentations internes.

Cette approche contextuelle permet de déterminer ce qui constitue une activité « normale » à l’échelle de l’écosystème publicitaire et, à partir de cette référence, de déceler des outliers — c’est‑à‑dire des profils ou des contenus qui s’écartent significativement du comportement attendu.

En pratique, l’attention inter-échantillons favorise l’apprentissage de distributions de référence et rend le système plus sensible aux cas rares qui, isolés, auraient pu passer inaperçus. L’algorithme apprend ainsi non seulement à reconnaître des patterns frauduleux connus, mais aussi à identifier des configurations inhabituelles révélatrices de nouvelles formes de fraude.

ALF surpasse les repères de production

Les tests présentés montrent que **ALF** surpasse une ligne de base de production très optimisée. Les auteurs décrivent une évaluation comparative qui met en lumière des gains simultanés en **précision** et en **rappel** pour plusieurs tâches critiques.

« Nos expérimentations montrent que **ALF** dépasse significativement une base de production fortement ajustée tout en obtenant de bonnes performances sur des benchmarks publics. En production, **ALF** apporte des améliorations simultanées et importantes en précision et en rappel, augmentant le rappel de plus de 40 points sur une politique critique tout en portant la précision à 99,8 % sur une autre. »

Ces résultats sont particulièrement pertinents car ils proviennent d’une mise en œuvre en conditions réelles et non uniquement d’évaluations hors ligne ou de tests standardisés. Cela signifie que les gains observés traduisent des bénéfices opérationnels concrets dans l’environnement de diffusion des annonces.

Compromis de performance : latence et optimisation

Les auteurs notent toutefois un compromis incontournable : la taille et la complexité de **ALF** entraînent une augmentation de la **latence** (le délai de réponse du système). Ils indiquent que, malgré ce surcoût temporel, la latence reste dans des limites acceptables pour l’exploitation en production et peut être réduite par l’emploi d’accélérateurs matériels (TPU, GPU spécialisés) et par des optimisations logicielles.

Le rapport précise la démarche comparative ayant servi à valider l’approche : la base de référence inclut des architectures variées (réseaux neuronaux profonds, ensembles, GBDT, régressions logistiques avec explorations croisées de fonctionnalités). Après un large balayage d’hyperparamètres et de topologies, **ALF** a montré un avantage clair sur les tâches de détection de risque, principalement grâce à sa capacité unique à modéliser de façon holistique les embeddings de contenu — un aspect que des architectures plus simples peinaient à exploiter.

En l’état, la balance coût-bénéfice est jugée favorable : l’augmentation de latence est compensée par des améliorations substantielles en matière de sécurité et de qualité de la modération des annonceurs. De plus, l’équipe indique que des optimisations supplémentaires permettront d’abaisser encore la latence tout en conservant le niveau de performance.

Comprendre les métriques : précision vs rappel

Pour mieux appréhender les résultats présentés, il est utile de rappeler brièvement la différence entre **précision** et **rappel** :

  • Précision : proportion des alertes signalées par le modèle qui sont réellement pertinentes (c.-à‑d. parmi les détections, quelle part est correcte). Une précision élevée limite les faux positifs et réduit le risque de pénaliser des annonceurs légitimes.
  • Rappel : proportion des cas problématiques réels identifiés par le modèle (c.-à‑d. parmi les fraudes existantes, quelle part est repérée). Un rappel élevé diminue les faux négatifs et améliore la couverture des menaces.

Idéalement, un système de détection combine une forte précision et un fort rappel. Dans la pratique, il existe souvent un compromis entre les deux : augmenter le rappel peut parfois diminuer la précision, et vice versa. Le rapport de Google indique que **ALF** est parvenu à améliorer simultanément ces deux métriques dans des scénarios significatifs, ce qui est remarquable.

Impact opérationnel et portée du déploiement

Les chercheurs confirment que **ALF** est intégré au dispositif de sécurité de **Google Ads** pour repérer les annonceurs enfreignant les règles publicitaires. Ils ne mentionnent pas d’utilisation active de ce modèle dans d’autres produits comme la recherche Google ou les fiches d’entreprise, bien que le document évoque des pistes d’exploitation futures.

Parmi les axes d’amélioration possibles cités, on trouve l’analyse des dynamiques temporelles (« temporal dynamics ») pour capter l’évolution des comportements frauduleux au fil du temps. Les auteurs suggèrent également que des variantes du modèle pourraient être adaptées à des tâches voisines, telles que le profilage d’audience ou l’optimisation créative, mais ces applications nécessiteraient des validations spécifiques.

Exemples concrets pour illustrer le fonctionnement

Pour mieux comprendre comment l’agrégation de signaux aide à repérer une fraude, voici quelques scénarios types (décrits de façon générale et non tirés d’exemples réels nominativement identifiés) :

  • Un compte nouvellement créé combine des annonces reprenant la marque d’une entreprise bien établie, et affiche un refus de paiement sur une transaction récente. Individuellement, chaque élément peut être bénin ; ensemble, ils constituent une configuration à risque.
  • Un annonceur possède des centaines d’images publicitaires. La plupart semblent inoffensives, mais quelques-unes redirigent vers des pages d’atterrissage contenant des contenus interdits ou des mécanismes d’arnaque. L’algorithme doit repérer ces éléments rares au milieu d’un grand volume d’actifs.
  • Un groupe d’annonceurs affiche un pattern de comportement similaire (mêmes adresses IP de gestion de compte, mêmes coordonnées bancaires partielles, variations mineures dans les textes) : en comparant les profils entre eux, **ALF** peut détecter une opération coordonnée.

Mesures de robustesse et validation continue

La robustesse d’un tel système repose autant sur l’architecture du modèle que sur les procédures de surveillance et de validation mises en place. Les auteurs du rapport mentionnent des processus d’évaluation continue et des pipelines de tests conçus pour identifier la dérive (drift) des données, la dégradation de performance et l’apparition de nouveaux schémas d’abus.

Ces mécanismes incluent des validations sur des ensembles de données annotées, des comparaisons périodiques avec des baselines historiques et des audits humains ciblés pour vérifier la qualité des décisions les plus sensibles. De plus, la calibration des scores et la transparence des seuils d’alerte sont des éléments clés pour maintenir la confiance opérationnelle.

Limites, biais potentiels et précautions

Comme tout modèle d’apprentissage automatique, **ALF** peut être affecté par des biais présents dans les données d’entraînement ou par des signaux corrélés à des caractéristiques non pertinentes. C’est pourquoi le rapport souligne l’importance de procédures rigoureuses de nettoyage des données, d’analyse d’équité et de tests de robustesse face à des attaques adversariales ou à des tentatives d’évasion.

Par ailleurs, la suppression préalable des **PII** ne suffit pas à elle seule à garantir l’absence de corrélations indésirables. Les équipes doivent donc surveiller les performances sur des sous-populations et s’assurer que les décisions automatiques n’entraînent pas de discrimination ou de préjudice injustifié pour des annonceurs légitimes.

Perspective technique : architectures et optimisations possibles

Le rapport indique que la supériorité de **ALF** tient en partie à sa capacité à fusionner des embeddings issus de différentes modalités (texte, image, vidéo, données structurées) au sein d’une architecture unifiée. Les composants suivants sont évoqués ou implicites :

  • Encoders spécifiques pour chaque modalité, produisant des représentations vectorielles comparables.
  • Mécanismes d’attention inter-échantillons pour capturer les relations entre annonceurs et isoler les anomalies.
  • Stratégies d’agrégation permettant de traiter des ensembles d’actifs de taille variable.
  • Mécanismes de calibration et de post-traitement pour produire des scores de confiance opérations utilisables en production.

Sur le plan opérationnel, l’utilisation d’accélérateurs matériels et la quantification des poids du modèle sont des pistes envisagées pour réduire la **latence** sans sacrifier la qualité de détection.

Conséquences pour les annonceurs et pour la plateforme

Une amélioration significative de la qualité de la **détection de la fraude** a plusieurs implications :

  • Pour les annonceurs légitimes, une baisse des faux positifs se traduit par moins d’interruptions injustifiées et une meilleure stabilité des campagnes.
  • Pour la plateforme, une suppression plus efficace des acteurs malveillants protège l’intégrité de l’écosystème publicitaire et renforce la confiance des annonceurs et des utilisateurs.
  • Pour la conformité, une précision élevée facilite l’application cohérente des politiques tout en limitant les recours et les contestations inutiles.

Cependant, toute modification des systèmes automatiques implique une période de transition et d’ajustement, ainsi qu’une communication claire autour des critères de modération et des voies de recours pour les annonceurs impactés.

Travaux futurs et pistes d’évolution

Les auteurs évoquent plusieurs directions de recherche et d’amélioration :

  • Prise en compte des **dynamiques temporelles** pour détecter l’émergence progressive de schémas frauduleux.
  • Adaptation et transfert du modèle vers d’autres tâches connexes : modélisation d’audience, optimisation créative, détection d’abus transverses.
  • Amélioration des mécanismes d’explicabilité afin que les décisions automatiques soient mieux compréhensibles par des examinateurs humains et par les annonceurs eux-mêmes.
  • Optimisations pour réduire la latence et les coûts opérationnels, tout en conservant la puissance de détection.

Accès au document de référence

Pour consulter le rapport scientifique complet et les détails méthodologiques, le PDF du document est disponible ici :

ALF : Advertiser Large Foundation Model for Multi-Modal Advertiser Understanding (PDF)

Image à la Une : Shutterstock/Login