Ben DAVAKAN

Vous êtes au bon endroit pour concrétiser vos ambitions sur le web. Parlons-en dès maintenant.

Empirik rachète Thot SEO pour 500 000 € afin de repenser le contenu à l’ère de l’intelligence artificielle

Empirik rachète Thot SEO pour 500 000 € afin de repenser le contenu à l’ère de l’intelligence artificielle

Empirik rachète Thot SEO pour 500 000 € afin de repenser le contenu à l’ère de l’intelligence artificielle

Empirik rachète Thot SEO pour 500 000 € afin de repenser le contenu à l’ère de l’intelligence artificielle

Sommaire

Annonce majeure dans le paysage du marketing digital français : l’agence Empirik a finalisé le rachat de Semanticc, l’éditeur derrière la solution d’optimisation sémantique Thot SEO. Bien que l’opération ait été bouclée discrètement au printemps 2025, sa communication publique ce 18 novembre s’accompagne d’un apport financier significatif — 500 000 euros — destiné à accélérer la montée en gamme du produit et à étendre son périmètre au-delà du strict SEO, vers l’optimisation de contenus pour les nouveaux moteurs de réponses basés sur les LLMs et autres assistants conversationnels.

Points clés à retenir

  • Acquisition stratégique : Empirik a intégré Thot SEO et consacre 500 000 € au renforcement de la R&D et au développement commercial.
  • Évolution du modèle : face à l’automatisation portée par l’IA, l’agence opère une transition vers un modèle hybride mêlant prestation de services et édition logicielle.
  • Ambition fonctionnelle élargie : la feuille de route vise non seulement l’indexabilité sur Google mais aussi la pertinence dans les réponses fournies par ChatGPT, Perplexity et autres systèmes d’IA conversationnelle.

Repenser le modèle d’agence à l’heure de l’intelligence artificielle

Cette opération n’est pas simplement une acquisition classique ; elle reflète une réponse organisationnelle aux profondes transformations induites par l’intelligence artificielle dans les métiers du marketing et de la création de contenus. Selon Lionel Cherpin, dirigeant d’Empirik, l’arrivée massive d’outils de génération automatique oblige les acteurs du secteur à revoir leur modèle économique pour préserver la création de valeur.

La mutation constatée est double : d’un côté, l’IA automatise des tâches auparavant réalisées manuellement (recherche de mots-clés, premières ébauches de texte, mise en forme basique) ; de l’autre, elle met en avant des besoins nouveaux — gouvernance des données, contrôle éditorial, optimisation pour des moteurs de réponses et mesure de la performance sur des plateformes conversationnelles. Pour rester pertinentes, les agences doivent donc combiner savoir-faire humain et solutions technologiques robustes.

Empirik choisit d’industrialiser cette hybridation en intégrant une solution d’édition logicielle déjà positionnée sur l’optimisation sémantique. L’objectif est d’articuler des prestations personnalisées avec une offre logicielle récurrente, afin d’atteindre à la fois une meilleure efficacité opérationnelle et une source de revenus plus prévisible.

Quelle raison d’être pour un modèle hybride ?

Le passage à un modèle hybride s’explique par plusieurs dynamiques concurrentes :

  • La montée en puissance des outils d’IA générative qui réduisent le temps consacré aux tâches routinières ;
  • La nécessité d’accompagner les clients sur des parcours de transformation numérique, avec des services d’audit, de formation et de gouvernance ;
  • La volonté d’internaliser des briques technologiques pour mieux maîtriser la différentiation produit et la propriété intellectuelle.

Concrètement, la stratégie consiste à proposer des abonnements à un logiciel d’optimisation sémantique complétés par des prestations de conseil et d’exécution, créant ainsi un cercle vertueux où la data collectée via la plateforme alimente l’amélioration continue des services.

Ressources et ambitions placées sur Thot SEO

Avant le rachat, Thot SEO affichait une trajectoire de croissance notable : une progression organique soutenue et une base de clients active. L’intégration au sein d’Empirik vise à fournir des moyens supplémentaires pour structurer les équipes techniques et commerciales, piloter une feuille de route produit et accélérer l’adoption commerciale, notamment chez les annonceurs.

Paul Grillet, fondateur de Thot SEO, a été confirmé à la tête de l’entité agrégée, avec la charge de conduire le développement produit et l’industrialisation des process. La mise à disposition d’équipes dédiées permettra de monter en maturité sur des sujets stratégiques : modélisation sémantique, intégration d’API d’IA, observabilité des performances de contenu et automatisation contrôlée des workflows éditoriaux.

Des investissements ciblés pour la R&D et l’internationalisation

L’apport de 500 000 € n’est pas la seule source de financement de l’opération. Le tour d’investisseurs a réuni des profils reconnus du secteur digital et technologique :

  • Mathieu Llorens, fondateur de Piano Analytics (anciennement AT Internet), connu pour son expertise en mesure d’audience et analytics ;
  • Sébastien Urios, spécialiste des technologies d’IA et des architectures de modèles d’apprentissage.

Ces apports ont une vocation opérationnelle : financer une roadmap produit ambitieuse, dont la création d’un modèle d’IA propriétaire, l’amélioration des capacités d’analyse sémantique et le développement de connecteurs vers les principaux écosystèmes (plates-formes publicitaires, CMS, outils d’analytics, API de LLMs).

L’ambition affichée par les dirigeants est de tripler la clientèle sur un horizon d’environ douze mois, en ciblant prioritairement les annonceurs et les équipes marketing des grandes entreprises, pour lesquelles la performance des contenus devient un levier de différenciation stratégique.

Optimiser pour des moteurs de réponse : au-delà du référencement traditionnel

Si le positionnement initial de Thot SEO reposait sur l’adaptation aux algorithmes de Google et autres moteurs de recherche traditionnels, la feuille de route s’étend aujourd’hui aux nouveaux moteurs de réponse tels que ChatGPT et Perplexity. Cette évolution n’est pas purement marketing : elle implique une redéfinition des métriques de performance et des méthodologies de production de contenus.

Les critères d’efficacité ne se limitent plus aux signaux classiques (mots-clés, balises, backlinks) mais intègrent désormais :

  • La capacité d’un texte à fournir des réponses concises et exactes requises par un assistant conversationnel ;
  • La structuration et la granularité de l’information pour faciliter l’extraction de passages pertinents par des LLMs ;
  • La traçabilité des sources et la factualité, critères essentiels pour limiter la propagation d’informations erronées dans les réponses générées automatiquement.

En pratique, un outil comme Thot SEO doit aider les rédacteurs à concevoir des contenus qui sont à la fois indexables par les moteurs traditionnels et exploitables par les systèmes de génération de réponses : méta-structuration, snippets enrichis, schémas de données structurées, et passages référencés moralement (source attribution).

Quelques défis techniques et opérationnels

L’intégration des exigences des LLMs soulève des défis concrets :

  • Mesurer la « réponse » : comment évaluer objectivement la visibilité et l’impact d’un contenu lorsque celui-ci est repris dans la réponse d’un assistant ? La mise au point d’indicateurs spécifiques est indispensable ;
  • Interopérabilité : développer des connecteurs robustes avec les API propriétaires de ChatGPT, Perplexity et autres, tout en gérant les contraintes de quotas, latence et coûts d’API ;
  • Gouvernance des données : garantir la conformité RGPD quand des données personnelles entrent dans les boucles d’apprentissage ou d’analyse ;
  • Biais et qualité : limiter les risques de génération de contenus biaisés ou factuellement incorrects en renforçant les étapes de vérification humaine et les mécanismes de fact-checking.

La qualité et l’authenticité comme facteurs de différenciation

Dans un contexte d’infobésité — caractérisé par une prolifération de contenus produits automatiquement —, la rareté réelle devient la qualité humaine et l’authenticité. Paul Grillet souligne que l’explosion du volume d’informations générées par l’IA a parfois entraîné une standardisation des textes, au détriment de la valeur ajoutée éditoriale.

Pour se distinguer, les marques et éditeurs doivent donc concentrer leurs efforts sur :

  • Des angles originaux et des expertises métiers clairement exprimées ;
  • Une voix de marque identifiable et cohérente, même lorsque des assistances automatisées interviennent dans la production ;
  • Des formats riches (études de cas, enquêtes, interviews) difficiles à automatiser et qui conservent une forte valeur perçue par les publics et les algorithmes de qualité.

Thot SEO, sous l’égide d’Empirik, se positionne pour outiller ces démarches : automatiser les tâches à faible valeur, tout en laissant aux rédacteurs et aux experts la responsabilité des contenus différenciants.

Impact sur les métiers et montée en compétences

La transition vers des workflows augmentés par l’IA implique une reconfiguration des postes et des compétences :

  • Les rédacteurs devront maîtriser de nouvelles pratiques : prompt engineering, structuration pour extraction par LLMs, et validation des sources ;
  • Les chefs de projet marketing verront leur rôle élargi à la gouvernance des modèles, à la supervision des pipelines de contenu et à l’interprétation des métriques issues des assistants conversationnels ;
  • Les équipes techniques devront intégrer des compétences en sécurité des API, en observabilité et en entraînement/évaluation de modèles.

Plutôt qu’un remplacement pur et simple, la logique qui émerge est celle de l’augmentation : l’IA prend en charge les tâches répétitives, mais la valeur stratégique demeure liée aux compétences humaines pour orienter la création et assurer la fiabilité des messages.

Enjeux réglementaires et éthiques

Le développement d’un moteur d’IA propriétaire et l’interfaçage avec des plates-formes externes imposent un cadre éthique et légal strict :

  • Conformité RGPD : gérer les données utilisateurs, les consentements et les droits d’effacement quand des logs d’interaction servent à améliorer les modèles ;
  • Transparence des sources : documenter l’origine des informations utilisées pour entraîner et alimenter les réponses afin de limiter les risques de désinformation ;
  • Responsabilité éditoriale : définir des processus de validation qui identifient et corrigent les contenus potentiellement préjudiciables.

La régulation européenne à venir sur l’IA (AI Act) et les initiatives locales de gouvernance des données imposeront par ailleurs des exigences de conformité que toute solution souhaitant prétendre au leadership européen devra intégrer.

Modèle économique et stratégie de commercialisation

Le modèle attendu combine plusieurs leviers :

  • Abonnements SaaS pour la plateforme d’optimisation sémantique avec paliers fonctionnels selon l’échelle et les intégrations ;
  • Offres de services complémentaires (audit, accompagnement, formation) facturées à la prestation ;
  • Monétisation indirecte via des connecteurs premium vers des solutions d’analytics, CRM et plateformes publicitaires.

Cette stratégie permet de répondre aux besoins de clients variés — éditeurs, annonceurs, agences — tout en garantissant une récurrence dans les revenus et des marges sur la propriété logicielle.

Cas d’usage concrets

Quelques scénarios d’utilisation illustrent la valeur apportée :

  • Un annonceur souhaite améliorer la performance de ses fiches produits : l’outil automatise l’analyse sémantique, propose des optimisations de titres et méta-descriptions, et génère des passages susceptibles d’être repris par des assistants capables de répondre directement à des requêtes transactionnelles.
  • Une rédaction média cherche à augmenter la découvrabilité de ses enquêtes : la plateforme aide à structurer les articles pour extraire des résumés exploitables par des moteurs de réponse et fournit des métriques de diffusion cross-plateforme.
  • Un service marketing corporate veut uniformiser la voix de marque : la solution centralise des guidelines éditoriales et assiste la production tout en gardant l’expertise humaine sur les contenus sensibles.

Compétitivité et paysage européen

La volonté d’élever Thot SEO au rang de leader européen répond à un constat : la majorité des fournisseurs de technologies d’IA applicatives sont souvent anglo-saxons et centralisés. Se positionner en Europe suppose :

  • Offrir des garanties de souveraineté des données et de conformité réglementaire ;
  • Adapter les modèles et interfaces aux langues et pratiques locales ;
  • Construire un réseau de partenaires (intégrateurs, agences, éditeurs) pour accélérer la distribution multi-pays.

Le financement apporté, l’entrée de personnalités du secteur et la capacité d’Empirik à industrialiser les process fournissent des atouts pour rebattre les cartes sur ce marché.

Mesures de performance : quels KPIs suivre ?

Avec l’arrivée des assistants conversationnels, de nouveaux indicateurs complètent les KPIs classiques :

  • Taux d’apparition dans des réponses de moteurs (share of answer) ;
  • Taux de clics générés par des réponses enrichies vs résultats organiques ;
  • Qualité perçue et taux d’engagement des contenus repris par des assistants ;
  • Exactitude factuelle (accuracy) mesurée via panels de vérification humaine.

La collecte et l’interprétation de ces métriques nécessitent des outils d’observabilité spécifiques, intégrés aux workflows de production.

Gestion du changement et adoption interne

L’adoption d’une plateforme augmentée par l’IA requiert un accompagnement structuré :

  • Formations pratiques pour les rédacteurs et chefs de projet ;
  • Mise en place de guidelines éditoriales adaptées à l’utilisation d’assistants automatiques ;
  • Workshops de co-construction pour aligner product owners, data scientists et équipes métiers sur les priorités produit.

Sans un plan de conduite du changement, les gains potentiels en efficience risquent de rester cantonnés à des pilotes peu exploités à l’échelle de l’organisation.

Risques et précautions à anticiper

Plusieurs risques doivent être anticipés par les acteurs qui déploient des solutions orientées LLM :

  • Risque de dépendance excessive à des API externes et à leurs tarifications ;
  • Risque d’érosion de la crédibilité si des réponses automatiques diffusent des erreurs ;
  • Exposition aux problématiques de propriété intellectuelle lorsque des contenus générés automatiquement reprennent des sources non libres.

La mise en place de garde-fous techniques et organisationnels (revues humaines systématiques, monitoring de la qualité, traçabilité des sources) est indispensable pour limiter ces risques.

Implications pour les agences et les annonceurs

Pour les agences, l’intégration d’une brique logicielle performante permet de valoriser une offre de conseil à plus forte valeur ajoutée. Pour les annonceurs, l’enjeu est de combiner optimisation technique et créativité pour rester audible dans un écosystème où les réponses automatisées structurent de plus en plus les parcours d’information client.

Les collaborations entre acteurs (éditeurs de plateforme, agences spécialisées, équipes internes marketing) devraient se multiplier afin d’industrialiser des pratiques robustes et reproductibles.

Roadmap produit et prochaines étapes

La feuille de route publique se décline en plusieurs chantiers prioritaires :

  • Développement d’un modèle d’IA propriétaire focalisé sur la génération contrôlée et l’évaluation sémantique ;
  • Renforcement des capacités d’intégration (connecteurs CMS, outils d’analytics, APIs de LLM) ;
  • Montée en puissance des équipes commerciales pour adresser les clients annonceurs à grande échelle ;
  • Déploiement de fonctions de conformité et d’audit pour répondre aux exigences réglementaires européennes.

La réussite de ce plan dépendra de la capacité à démontrer des gains concrets sur la performance des contenus, la réduction du coût de production et l’amélioration de la fiabilité des réponses automatisées.

Conclusion : vers une évolution pondérée et auditable

Le rachat de Thot SEO par Empirik se situe à l’intersection de plusieurs tendances lourdes : la professionalisation de l’usage des LLMs dans la production de contenus, la nécessité d’un modèle économique garantissant des revenus récurrents et l’émergence d’exigences réglementaires et éthiques fortes. L’apport financier et humain facilite la structuration d’une solution capable de répondre aux besoins européens, à condition d’adopter une approche prudente et mesurée.

Au cœur de cette transformation, la notion d’authenticité reste centrale : les organisations qui parviendront à combiner automatisation intelligente et expertise humaine — en conservant une traçabilité, un contrôle qualité rigoureux et une volonté de transparence — seront les mieux placées pour tirer parti des opportunités offertes par l’intelligence artificielle.

Mentions méthodologiques

Les éléments de cet article sont issus d’annonces publiques réalisées par Empirik et Semanticc, de déclarations de dirigeants et d’une synthèse des enjeux techniques, réglementaires et commerciaux liés à l’usage des LLMs dans le domaine du SEO et de la production de contenus.