✨ Projet chatbot · Reworld Media · Avril 2026

Ariane

Le projet Ariane déploie un chatbot qui répond, monétise et relie les sites Reworld Media. 🪡

Scroll pour découvrir
01 · Vision

Un moteur.
Trois usages.

🪡 Le projet Ariane déploie un assistant conversationnel embarqué sur nos sites. Il fait trois choses :

  • 💬 Il répond aux questions du lecteur en s'appuyant sur notre corpus éditorial.
  • 💎 Il insère des suggestions publicitaires pertinentes, au bon moment, sans friction.
  • 🔗 Il renvoie vers les autres titres du groupe quand le sujet dépasse le périmètre du site.

Une expérience unique, trois leviers de valeur. Le tout piloté depuis RMR 📊, notre cockpit interne, avec deux vues dédiées :

  • 📰 Côté éditeur — analytics, volumes, revenus, top questions.
  • 🎯 Côté régie — création, pilotage des campagnes et reporting annonceur.
02 · Les 3 briques

Que fait le chatbot,
concrètement ?

01
💬

Répondre

L'assistant éditorial contextuel qui s'appuie uniquement sur notre corpus.

  • RAG strict sur notre corpus
  • Uniquement la thématique du site
  • Sources citées
  • Suggestions par article
02
💎

Monétiser

L'inventaire publicitaire conversationnel, intégré sans friction.

  • Pub glissée dans les suggestions
  • Tag « ad » discret en bas à droite
  • Ciblage thématique + mot-clé
  • Modèle de vente au clic (CPC)
03
🔗

Relier

Le maillage des sites du groupe, par similarité sémantique.

  • Similarité sémantique
  • Ouverture en nouvel onglet
  • Tracking cross-site
  • KPI groupe dédié
03 · La concurrence

Ce que font Lemrock et Sumbia,
et ce qu'on fait différemment. 🎯

L

Lemrock

Widget · Console Publisher · Console Advertiser
Lemrock
Lemrock Campagnes

Ce qu'ils font bien. Widget chat, console publisher, console advertiser (campagnes CPC, budgets, ciblage).

Ce qu'on garde. La structure de campagne — standard du marché.

On va plus loin — intégration RMR native et maillage cross-sites groupe.
S

Sumbia

Analytics via Grafana
Sumbia
Sumbia Advertisers

Ce qu'ils font. Analytics Grafana — mais en mieux, leur dashboard est horrible. Complexe, peu friendly, impossible à présenter à un annonceur.

Ce qu'on garde. La granularité des métriques. Ce qu'on refait — l'UX, de zéro, dans RMR.

On va plus loin — un cockpit propre, moderne, présentable commercialement.
04 · Démo

Le widget en action. 💬

Mockup basé sur le chatbot actuel de Modes & Travaux — même logique visuelle, adaptée à notre moteur. Regarde le widget s'animer à mesure que tu descends.

Isoler sa maison sans se ruiner : notre guide 2026 pour réduire sa facture d'électricité

L'isolation thermique reste le levier n°1 pour faire baisser sa consommation. Avant de se lancer dans de gros travaux, plusieurs gestes simples permettent déjà de gagner 15 à 25% sur la facture annuelle.

Rideaux thermiques, boudins de porte, films pour fenêtres : on fait le point sur les solutions accessibles et efficaces pour passer l'hiver sans exploser son budget chauffage…

Scénarios de conversation Essaie-les !
Auto-play
Comment réduire ma facture d'électricité sans changer de logement ?
🏠 Quels sont les 3 gestes à moins de 50€ pour isoler ?
❄️ Notre sélection d'isolants malins à moins de 50 €
Ad
Contenu généré par IA · peut contenir des erreurs
05 · Dans RMR

Tout vit dans RMR. 📊

Deux vues, un seul cockpit : éditeur (consultation) et régie (création et pilotage des campagnes). Aucune interface externe pour l'annonceur.

Vue · Éditeur 📰

Dashboard site

Lecture seule · éditeur du site + régie/sales
Visites
0
↗ +12,4%
Chatbot ouvert
0
4,2% des visiteurs
Conversations
0
1,2 conv / ouverture
Revenus
0
↗ +8,1% MoM
Conversations — 30 derniers jours
Tendance ↗ en croissance
Ouvertures Conversations
🔥 Top questions posées
Sur les 30 derniers jours
01Comment réduire sa facture d'électricité ?2 847
02Quels rideaux thermiques choisir ?1 532
03Isolation : par où commencer ?1 218
04MaPrimeRénov : qui y a droit en 2026 ?947
05Programmer son chauffage, mode d'emploi684
Vue · Régie 🎯

Campagnes

Création · pilotage · rapports annonceur
Campagnes
0
1 active
Impressions
0
sur période
CTR moyen
0
benchmark OK
Total clics
0
✨ Création en 4 étapes
Le commercial crée, l'annonceur valide
1
Brief
Annonceur · objectif · dates
2
Ciblage
Sites · thématique · mots-clés
3
Créas
Assistance IA · variantes
4
Budget
Total · CPC · cap journalier
📋 Campagnes récentes
ActiveFNAC — Santé mentale
Budget 16€ · CPC 0,50€ · Dépensé 124€ · CTR 0,38%
100%
DraftL'Occitane — Anti-âge
Budget 500€ · CPC 0,45€ · Lance le 28/04
0%
DoneBlanche Porte — Printemps
Budget 400€ · CPC 0,40€ · Dépensé 385€ · CTR 0,28%
96%
📤 Pas d'accès direct annonceur — le gestionnaire de campagne envoie un rapport en fin de campagne.
06 · Architecture

Sous le capot. ⚙️

L'enjeu n°1 : s'assurer que le chatbot ne raconte jamais n'importe quoi. Qu'il reste collé à notre contenu, sans halluciner, sans sortir du sujet du site. Voici comment on s'y prend, étape par étape.

1

📚 On analyse tous nos articles

Toute la production éditoriale des 20+ sites du groupe est indexée en continu. Chaque article, chaque paragraphe, est analysé et rendu recherchable.

Alimenté chaque jour automatiquement.
2

🔍 On cherche chez nous, pas sur le web

À chaque question du lecteur, on identifie les passages les plus pertinents de notre corpus. Pas de recherche Google, pas de recherche sur le web ouvert. Uniquement sur notre production éditoriale.

Si la question n'a rien à voir avec nos sujets, le chatbot le détecte à cette étape.
3

🛡️ On force le LLM à ne répondre qu'avec nos réponses

C'est le cœur du dispositif. Le LLM (Gemini, par exemple) reçoit les passages qu'on lui a sélectionnés + un prompt strict qui lui interdit d'inventer, de compléter avec sa connaissance générale, ou de sortir de la thématique du site.

  • Interdiction de sortir du sujet du site
  • Interdiction d'inventer une information absente de notre corpus
  • Obligation de citer la source
  • Si la réponse n'existe pas chez nous : le chatbot le dit, plutôt que d'halluciner
🔒 C'est ce qui garantit qu'on ne se fera pas démonter sur les réseaux sociaux.
4

💎 On associe une pub — si elle est pertinente

En parallèle, on regarde si une campagne publicitaire active correspond au contexte. Si oui, elle est glissée dans les suggestions. Si aucune ne matche, pas de pub.

5

🔗 On relie aux autres titres du groupe

Si la question dépasse le périmètre du site, on propose un article d'un autre site du groupe. Le lecteur reste dans l'écosystème Reworld.

🎯 La promesse de fiabilité
01
Pas d'hallucination

Toute réponse est reliée à un article existant. Pas de source, pas de réponse.

02
Pas de hors-sujet

Le chatbot d'un site auto ne parlera jamais santé mentale ou politique.

03
Revue humaine possible

Les prompts sont centralisés et modifiables par l'équipe éditoriale sans passer par la tech.

06.b · Ça marche ? Voilà comment.

Le prompt, en vrai.

Le LLM reçoit à chaque conversation un prompt strict qui lui dicte ses règles. Version simplifiée :

system-prompt · modes-et-travaux
En direct

Concrètement, ça donne quoi ? 👇

Clique sur un cas pour voir la conversation se jouer en temps réel.

🛡️ 4 couches de défense, pour ne rien laisser passer. ● armé

01
Classifier à l'entrée

Un petit modèle rapide analyse la question. Hors thématique ? Stop immédiat.

02
Recherche dans notre corpus

Passages pertinents via embeddings. Si rien ne matche, la réponse est "je ne sais pas".

03
Prompt strict au LLM

Le LLM reçoit les passages + règles explicites. Il est cadré, pas libre.

04
Vérification post-génération

On vérifie que la réponse est bien groundée dans les passages fournis. Sinon, rejetée.

Fidélité au périmètre
0%
Avec ces 4 couches, on atteint ~99% de fidélité au périmètre. Le 1% restant atterrit sur le message de refus — aucun dérapage public possible.
07 · Les étapes

Du cadrage au scale groupe. 🚀

  1. P0
    🧭 Cadrage

    Spec, prompts, stack technique

    Specs métier validées · choix LLM · prompts éditoriaux via LLPR · architecture RAG · maquettes UX.
  2. P1
    🌱 MVP pilote

    Premier site en production

    Widget sur un site pilote · ingestion adn_post · moteur LLM · dashboards éditeur · tracking basique. Pas encore de monétisation.
  3. P2
    💰 Module régie

    Création de campagnes

    Module campagnes dans RMR · matching pub contextuel · analytics advertiser · première campagne commercialisée · génération créas via LLM.
  4. P3
    🌐 Scale groupe

    Déploiement sur les sites du groupe

    Extension à une vingtaine de sites · onboarding éditeurs · formation régie · maillage cross-sites · monitoring prod.
  5. P4
    🔌 Optionnel · phase 2

    Partenaires externes

    Intégration Taboola et Sparteo via API · enrichissement de la demande publicitaire.
08 · FAQ

Les questions qu'on se pose. 🧠

Les interrogations revenues le plus souvent pendant la préparation du projet.

Pourquoi on cherche uniquement dans notre corpus ?+

Ce n'est pas une question de qualité, mais de stratégie et responsabilité. Six raisons :

  • Responsabilité éditoriale — si le chatbot cite Le Monde et que Le Monde se trompe, c'est notre site qui prend.
  • Droits d'auteur — contenu externe = risque juridique. Notre corpus = 100% propriétaire.
  • Driver de trafic — l'intérêt est de renvoyer vers nos articles, pas vers Le Monde.
  • Ton éditorial — Modes & Travaux parle d'une certaine manière, on veut garder ce ton.
  • On est sérieux sur notre thématique — 70 ans d'articles M&T sur la maison, personne n'a un corpus plus profond.
  • Différenciation vs ChatGPT — si on répond comme ChatGPT, autant qu'ils ouvrent ChatGPT.
Pour les questions évidentes, Gemini peut répondre de sa connaissance ?+

Oui. Le prompt distingue trois types :

  • Fait général évident, dans notre thématique — ex. "à quelle saison tombent les feuilles" → Gemini répond brièvement.
  • Conseil, recommandation, chiffre précis — ex. "quels rideaux pour 30€ ?" → obligatoirement grounded sur notre corpus.
  • Hors thématique — ex. "Trump ou Obama ?" → refus poli.
Comment on crée la liste des sujets bannis ?+

Pas une liste de mots-clés bêtes (trop fragile). Trois approches :

  • Mini classifier sémantique — petit LLM rapide qui classe la question en contexte.
  • Le RAG fait filtre — si rien ne matche dans le corpus, hors scope.
  • Taxonomie par site — chaque site a ses règles.
"Cancer sur Doctissimo" ou "Trump Tower sur M&T" ?+
  • "Cancer" sur Doctissimo → corpus plein d'articles santé. Prompt Doctissimo autorise + disclaimer médical.
  • "Trump Tower" sur M&T → classifier comprend l'architecture. Si on a un article, on répond. Sinon refus.

Le périmètre est défini par site. Ce qui est banni chez M&T peut être le cœur du métier de Doctissimo.

Ne risque-t-on pas de refuser trop ?+

Un peu au démarrage. Taux typique : 2-5% de faux refus les premières semaines, puis sous 1% après ajustements. On sample, on identifie, on affine le prompt via LLPR.

Principe : refuser à tort (agaçant) est moins grave que répondre à tort (catastrophe RP).

Comment marche la recherche dans notre corpus, sans LLM ?+

Avec des embeddings — pas du LLM, très rapide, peu cher.

  1. Chaque paragraphe d'article est transformé en vecteur à l'indexation.
  2. La question est transformée en vecteur de la même façon.
  3. On compare (cosinus) et on récupère les plus proches.

Quelques millisecondes, ~100× moins cher qu'un appel LLM.

Risque juridique, RGPD, conversations stockées ?+
  • Conversations — CMP existante pour consentement, rétention limitée, anonymisation.
  • LLM — Gemini / OpenAI / Anthropic, hébergement UE possible (Vertex AI, Azure).
  • Responsabilité éditoriale — portée par l'éditeur du site.
Comment on ajoute un site ?+
  • 1. Indexationadn_post récupère déjà les articles.
  • 2. Configuration — prompt et périmètre via LLPR.
  • 3. Widget — injection du widget.js avec le token publisher.

Une demi-journée par site, une fois la v1 stabilisée.