✨ Projet chatbot · Reworld Media · Avril 2026

Ariane

Le projet Ariane déploie un chatbot qui répond, monétise et relie les sites Reworld Media. 🪡

3
Briques produit
20+
Sites cible
1
Équipe · Webpick
0€
Prestataire externe
01 · Vision

Un moteur.
Trois usages.

🪡 Le projet Ariane déploie un assistant conversationnel embarqué sur nos sites. Il fait trois choses :

  • 💬 Il répond aux questions du lecteur en s'appuyant sur notre corpus éditorial.
  • 💎 Il insère des suggestions publicitaires pertinentes, au bon moment, sans friction.
  • 🔗 Il renvoie vers les autres titres du groupe quand le sujet dépasse le périmètre du site.

Une expérience unique, trois leviers de valeur. Le tout piloté depuis RMR 📊, notre cockpit interne, avec deux vues dédiées :

  • 📰 Côté éditeur — analytics, volumes, revenus, top questions.
  • 🎯 Côté régie — création, pilotage des campagnes et reporting annonceur.
02 · Les 3 briques

Que fait le chatbot,
concrètement ?

01
💬

Répondre

L'assistant éditorial contextuel qui s'appuie uniquement sur notre corpus.

  • RAG strict sur notre corpus
  • Uniquement la thématique du site
  • Sources citées
  • Suggestions par article
02
💎

Monétiser

L'inventaire publicitaire conversationnel, intégré sans friction.

  • Pub glissée dans les suggestions
  • Tag « ad » discret en bas à droite
  • Ciblage thématique + mot-clé
  • Modèle de vente au clic (CPC)
03
🔗

Relier

Le maillage des sites du groupe, par similarité sémantique.

  • Similarité sémantique
  • Ouverture en nouvel onglet
  • Tracking cross-site
  • KPI groupe dédié
03 · La concurrence

Ce que font Lemrock et Sumbia,
et ce qu'on fait différemment. 🎯

L

Lemrock

Widget · Console Publisher · Console Advertiser
Lemrock Publisher Dashboard
Lemrock Campagnes

Ce qu'ils font bien. Widget chat sur article, console publisher (volumes, revenus), console advertiser (campagnes au clic, CPC, budgets, ciblage, dates).

Ce qu'on garde. La structure de campagne (budget, CPC, dates, créas) est le standard du marché.

On va plus loin — intégration RMR native et maillage cross-sites groupe.
S

Sumbia

Analytics via Grafana
Sumbia Grafana vue générale
Sumbia Top Advertisers

Ce qu'ils font. Analytics Grafana (conversations, messages, top produits, top advertisers) — mais en mieux, leur dashboard est horrible. Complexe, peu friendly, impossible à présenter à un annonceur.

Ce qu'on garde. La granularité des métriques. Ce qu'on refait — l'UX, de zéro, dans RMR.

On va plus loin — un cockpit propre, moderne, présentable commercialement.
04 · Démo

Le widget en action. 💬

Mockup basé sur le chatbot actuel de Modes & Travaux — même logique visuelle, adaptée à notre moteur. Clique sur un scénario pour voir le widget répondre.

Isoler sa maison sans se ruiner : notre guide 2026 pour réduire sa facture d'électricité

L'isolation thermique reste le levier n°1 pour faire baisser sa consommation. Avant de se lancer dans de gros travaux, plusieurs gestes simples permettent déjà de gagner 15 à 25% sur la facture annuelle.

Rideaux thermiques, boudins de porte, films pour fenêtres : on fait le point sur les solutions accessibles et efficaces pour passer l'hiver sans exploser son budget chauffage…

Scénarios de conversation
Comment réduire ma facture d'électricité sans changer de logement ?
🏠 Quels sont les 3 gestes à moins de 50€ pour isoler ?
❄️ Notre sélection d'isolants malins à moins de 50 €
Ad
Contenu généré par IA · peut contenir des erreurs
05 · Dans RMR

Tout vit dans RMR. 📊

Deux vues, un seul cockpit : éditeur (consultation des dashboards) et régie (création et pilotage des campagnes). Aucune interface externe pour l'annonceur — le gestionnaire de campagne lui envoie les rapports.

Vue · Éditeur 📰

Dashboard site

Lecture seule · éditeur du site + régie/sales
Visites
1,58 M
↗ +12,4%
Chatbot ouvert
66 830
4,2% des visiteurs
Conversations
28 067
1,2 conv / ouverture
Revenus
€ 4 195
↗ +8,1% MoM
Conversations — 30 derniers jours
Tendance ↗ en croissance
Ouvertures Conversations
🔥 Top questions posées
Sur les 30 derniers jours
01Comment réduire sa facture d'électricité ?2 847
02Quels rideaux thermiques choisir ?1 532
03Isolation : par où commencer ?1 218
04MaPrimeRénov : qui y a droit en 2026 ?947
05Programmer son chauffage, mode d'emploi684
Vue · Régie 🎯

Campagnes

Création · pilotage · rapports annonceur
Campagnes
5
1 active
Impressions
96 006
sur période
CTR moyen
0,30%
benchmark OK
Total clics
248
✨ Création en 4 étapes
Le commercial crée, l'annonceur valide
1
Brief
Annonceur · objectif · dates
2
Ciblage
Sites · thématique · mots-clés
3
Créas
Assistance IA · variantes
4
Budget
Total · CPC · cap journalier
📋 Campagnes récentes
ActiveFNAC — Santé mentale
Budget 16€ · CPC 0,50€ · Dépensé 124€ · CTR 0,38%
100%
DraftL'Occitane — Anti-âge
Budget 500€ · CPC 0,45€ · Lance le 28/04
0%
DoneBlanche Porte — Printemps
Budget 400€ · CPC 0,40€ · Dépensé 385€ · CTR 0,28%
96%
📤 Pas d'accès direct annonceur — le gestionnaire de campagne envoie un rapport PDF/CSV à l'annonceur en fin de campagne.
06 · Architecture

Sous le capot. ⚙️

L'enjeu n°1 : s'assurer que le chatbot ne raconte jamais n'importe quoi. Qu'il reste collé à notre contenu, sans halluciner, sans sortir du sujet du site. Voici comment on s'y prend, étape par étape.

1

📚 On analyse tous nos articles

Toute la production éditoriale des 20+ sites du groupe est indexée en continu. Chaque article publié, chaque paragraphe, est analysé, découpé et rendu recherchable par le moteur.

Cette base est alimentée chaque jour, automatiquement.
2

🔍 On cherche chez nous, pas sur le web

À chaque question du lecteur, on identifie les passages les plus pertinents de notre corpus. Pas de recherche Google, pas de recherche sur le web ouvert. Uniquement sur notre production éditoriale.

Si la question n'a rien à voir avec nos sujets, le chatbot le détecte à cette étape.
3

🛡️ On force le LLM à ne répondre qu'avec nos réponses

C'est le cœur du dispositif. Le LLM (Gemini, par exemple) reçoit les passages qu'on lui a sélectionnés, + un prompt strict qui lui interdit d'inventer, de compléter avec sa connaissance générale, ou de sortir de la thématique du site.

  • Interdiction de sortir du sujet du site (politique, santé générale, autres thématiques…)
  • Interdiction d'inventer une information absente de notre corpus
  • Obligation de citer la source
  • Si la réponse n'existe pas chez nous : le chatbot le dit, plutôt que d'halluciner
🔒 C'est ce qui garantit qu'on ne se fera pas démonter sur les réseaux sociaux.
4

💎 On associe une pub — si elle est pertinente

En parallèle de la réponse, on regarde si une campagne publicitaire active correspond au contexte de la conversation (thématique, mots-clés). Si oui, elle est glissée dans les suggestions. Si aucune ne matche, pas de pub — l'expérience lecteur prime.

5

🔗 On relie aux autres titres du groupe

Si la question dépasse le périmètre du site (ex. question budget sur Modes & Travaux), on propose un article d'un autre site du groupe qui traite le sujet. Le lecteur reste dans l'écosystème Reworld, et on active la valeur groupe.

🎯 La promesse de fiabilité
01
Pas d'hallucination

Toute réponse est reliée à un article existant. Pas de source, pas de réponse.

02
Pas de hors-sujet

Le chatbot d'un site auto ne parlera jamais santé mentale ou politique.

03
Revue humaine possible

Les prompts sont centralisés et modifiables par l'équipe éditoriale sans passer par la tech.

06.b · Ça marche ? Voilà comment.

Le prompt, en vrai.

Le LLM reçoit à chaque conversation un prompt strict qui lui dicte ses règles. Voici une version simplifiée du prompt Modes & Travaux :

system-prompt · modes-et-travaux
Tu es l'assistant conversationnel du site Modes & Travaux.
Ton périmètre : maison, bricolage, décoration, jardinage, rénovation.

RÈGLES :

1. Pour les questions de conseil, recommandation, chiffres précis,
   utilise UNIQUEMENT les passages fournis dans CONTEXTE.
   Cite systématiquement l'article source.

2. Pour les faits généraux évidents dans notre thématique
   (ex. saisonnalité, noms d'outils, gestes de base),
   tu peux répondre brièvement depuis ta connaissance.

3. Pour les questions hors périmètre
   (politique, santé médicale, finance, religion, opinions…),
   tu dis : "Cette question sort du périmètre de Modes & Travaux."
   Et tu redirigeshz vers un autre site du groupe si pertinent.

4. Si tu doutes, tu refuses. Jamais d'invention.

CONTEXTE : {passages_récupérés_dans_notre_corpus}

HISTORIQUE : {messages_précédents}

QUESTION : {question_du_lecteur}

3 exemples de conversations réelles.

Observe comment le chatbot gère chaque cas de figure.

✅ Conseil précis — grounded sur un article
Quels rideaux thermiques choisir pour moins de 30€ ?

Trois options validées par notre guide :

  • Rideau occultant 140×240 — doublure thermique, à partir de 22€
  • Rideau polaire hiver — mieux isolant, ~28€
  • Boudin de porte — en complément, 8-15€
↳ Source : Modes & Travaux — Guide rideaux thermiques 2026
Le chatbot a trouvé 3 passages dans le corpus → réponse groundée + source citée.
💡 Fait général dans la thématique — répondu librement
À quelle saison tombent les feuilles des arbres ?

Les feuilles des arbres à feuilles caduques tombent en automne, généralement entre octobre et novembre en France. Ce phénomène (l'abscission) est déclenché par la baisse de la lumière et des températures.

Tu veux un conseil pour bien préparer ton jardin à l'automne ? J'ai plusieurs articles sur le sujet.

Question évidente, dans la thématique jardinage → réponse depuis la connaissance générale du LLM, sans forcer une citation. Relance contextuelle pour ramener vers le corpus.
🚫 Hors périmètre — refus poli
Tu préfères Trump ou Obama ?

Cette question sort du périmètre de Modes & Travaux. Je suis spécialisé en maison, bricolage, décoration et jardinage — je ne donne pas d'avis politique, et je ne réponds que sur les sujets couverts par nos articles.

💡 Je peux en revanche t'aider sur : comment isoler ta maison, quelle peinture choisir, quand planter tes tomates…

Filtre sémantique détecte la question politique → refus poli avec redirection vers nos thématiques. Aucun risque de dérapage public.

🛡️ 4 couches de défense, pour ne rien laisser passer.

01
Classifier à l'entrée

Un petit modèle rapide et pas cher analyse la question. Si elle est hors thématique, stop immédiat.

02
Recherche dans notre corpus

On récupère les passages les plus pertinents via embeddings. Si rien ne matche, la réponse sera "je ne sais pas".

03
Prompt strict au LLM

Le LLM reçoit les passages + un système de règles explicites. Il est cadré, pas libre.

04
Vérification post-génération

On vérifie que la réponse est bien groundée dans les passages fournis. Sinon, on la rejette.

🎯 Avec ces 4 couches, on atteint ~99% de fidélité au périmètre sur des déploiements comparables (ChatGPT Entreprise, Vertex AI Search). Le 1% restant = cas limites qui atterrissent sur le message de refus, aucun dérapage public possible.
07 · Les étapes

Du cadrage au scale groupe. 🚀

  1. P0
    🧭 Cadrage

    Spec, prompts, stack technique

    Specs métier validées · choix LLM (Gemini pressenti) · prompts éditoriaux via LLPR · architecture RAG + vector DB · maquettes UX widget + RMR.
  2. P1
    🌱 MVP pilote

    Premier site en production

    Widget sur un site pilote (Modes & Travaux probable) · ingestion adn_post · moteur LLM · dashboards éditeur dans RMR · tracking basique. Pas encore de monétisation.
  3. P2
    💰 Module régie

    Création de campagnes

    Module campagnes dans RMR · matching pub contextuel · analytics advertiser · première campagne commercialisée en interne · génération assistée des créas via LLM.
  4. P3
    🌐 Scale groupe

    Déploiement sur les sites du groupe

    Extension à une vingtaine de sites · onboarding des éditeurs · formation régie / sales · maillage cross-sites actif · monitoring prod · documentation interne.
  5. P4
    🔌 Optionnel · phase 2

    Partenaires externes

    Intégration Taboola et Sparteo via API · enrichissement de la demande publicitaire · ouverture réfléchie à Tradedoubler si la v1 groupe tourne.
08 · FAQ

Les questions qu'on se pose. 🧠

Les interrogations revenues le plus souvent pendant la préparation du projet, avec les réponses à date.

Pourquoi on cherche uniquement dans notre corpus ? On n'a pas les contenus les plus "sérieux" du web. +

Question légitime. Ce n'est pas une question de qualité, mais de stratégie et de responsabilité. Six raisons de rester chez nous :

  • Responsabilité éditoriale — Reworld est éditeur. Si le chatbot cite Le Monde et que Le Monde se trompe, c'est notre site qui prend. En restant sur notre corpus, on maîtrise la source.
  • Droits d'auteur — réutiliser du contenu externe = risque juridique + licences à négocier. Notre corpus = 100% propriétaire, zéro risque.
  • Driver de trafic — l'intérêt est de renvoyer vers nos articles (pages vues, pub display). Si le chatbot cite Le Monde, le lecteur clique vers Le Monde. Absurde.
  • Ton éditorial — Modes & Travaux parle d'une certaine manière. Si on nourrit le chatbot avec Le Monde, il répond comme Le Monde. Le lecteur ne vient pas pour ça.
  • "Pas les plus sérieux" est un faux problème — sur leur thématique, nos titres sont largement crédibles. 70 ans d'articles Modes & Travaux sur la maison, personne n'a un corpus plus profond.
  • Différenciation vs ChatGPT / Gemini — si on répond comme ChatGPT, autant que le lecteur ouvre ChatGPT. Notre valeur = c'est le chatbot de Modes & Travaux.
Pour les questions évidentes (genre "à quelle saison tombent les feuilles ?"), Gemini peut-il répondre de sa propre connaissance ? +

Oui. On joue sur un spectre, pas sur du tout-ou-rien. Le prompt distingue trois types de questions :

  • Fait général évident, dans notre thématique — ex. "à quelle saison tombent les feuilles ?" → Gemini répond de sa connaissance, brièvement, sans forcer une citation.
  • Conseil, recommandation, chiffre précis — ex. "quels rideaux thermiques pour 30€ ?" → obligatoirement grounded sur notre corpus, avec source citée.
  • Hors thématique — ex. "Trump ou Obama ?" → refus poli.

Les LLM modernes suivent bien ce genre d'instruction nuancée. C'est ce qui permet d'avoir un chatbot utile, pas juste un mur de "désolé".

Comment on crée la liste des sujets bannis ? C'est une liste de mots-clés ? +

On ne fait PAS une liste de mots-clés bêtes. Trop fragile (cf. "Trump Tower" ≠ "Trump"). On combine trois approches plus malignes :

  • Un mini classifier sémantique — un petit LLM rapide et pas cher (type Gemini Flash) qui lit la question et la classe en in-scope / out-of-scope selon le contexte. Il comprend la différence entre un bâtiment et un politique.
  • Le RAG lui-même fait office de filtre — si on cherche "Trump ou Obama ?" dans le corpus Modes & Travaux, on ne trouve rien → on sait que c'est hors scope.
  • Une taxonomie par site — chaque site a ses propres règles de périmètre, définies avec l'équipe éditoriale et modifiables sans passer par la tech.
Et pour "cancer sur Doctissimo" ou "Trump Tower sur Modes & Travaux" ? Ça ne va pas être bloqué à tort ? +

Non, justement — grâce aux règles par site et à la compréhension sémantique.

  • "Cancer" sur Doctissimo → le corpus Doctissimo contient des milliers d'articles santé / oncologie. Le RAG les remonte, le prompt Doctissimo autorise le sujet (avec un disclaimer "ceci n'est pas un avis médical, consultez un professionnel"), le chatbot répond normalement.
  • "Trump Tower" sur Modes & Travaux → le classifier sémantique comprend que le sujet est l'architecture. Si on a un article sur ce bâtiment, on répond. Sinon, on refuse — mais pour "pas d'article chez nous", pas pour "sujet politique".

Le périmètre est défini par site. Ce qui est banni chez M&T peut être au cœur du métier de Doctissimo.

Ne risque-t-on pas de refuser trop de questions légitimes ? +

Un peu, au démarrage, oui. Taux typique : 2-5% de faux refus les premières semaines, puis sous 1% après 2-3 mois d'ajustements.

La méthode :

  • On sample les conversations chaque semaine (lecture humaine d'un échantillon).
  • On identifie les faux refus (questions qu'on aurait dû traiter).
  • On ajuste le prompt et le classifier en conséquence, sans passer par un déploiement tech (le prompt est géré via LLPR, accessible à l'équipe éditoriale).

Principe : il vaut mieux refuser à tort (agaçant mais pas grave) que répondre à tort (catastrophe RP). Et ça s'affine continuellement.

Comment la recherche dans notre corpus fonctionne, sans LLM ? +

Avec une technique simple appelée embeddings — pas du LLM, très rapide, très peu cher.

  1. À l'indexation (une fois) — chaque paragraphe d'article est transformé en un vecteur : une liste de chiffres qui représente son "sens". Ces vecteurs sont stockés dans une base spécialisée (vector DB).
  2. À chaque question — on transforme la question en vecteur de la même façon.
  3. On compare — une formule mathématique simple (cosinus) identifie les vecteurs les plus proches. Les passages les plus proches = les plus pertinents.

C'est très rapide (quelques millisecondes) et très peu coûteux (~100× moins cher qu'un appel LLM). Aucun besoin de LLM à cette étape. Outils possibles : Qdrant, Pinecone, pgvector — à arbitrer avec la stack existante.

Quel est le risque juridique ? RGPD, conversations stockées ? +

Trois sujets, tous gérables :

  • Stockage des conversations — on s'appuie sur la CMP existante des sites pour le consentement, durée de rétention limitée (ex. 30 jours), anonymisation par défaut.
  • LLM utilisé — on peut utiliser Gemini (Google) ou OpenAI ou Anthropic. Hébergement Europe possible via Vertex AI ou Azure OpenAI pour la conformité DPO.
  • Responsabilité éditoriale — portée par l'éditeur du site, comme pour le reste du contenu publié.

À valider en détail avec notre DPO au moment du cadrage légal.

Comment on ajoute un site au périmètre ? +

Trois étapes, automatisables :

  • 1. Indexation — le site alimente déjà adn_post, donc ses articles arrivent automatiquement dans le corpus.
  • 2. Configuration — on définit le prompt et le périmètre thématique du site (par l'équipe éditoriale, via LLPR).
  • 3. Intégration widget — on injecte le script widget.js avec le token publisher du site. Possible via plugin WP ou GTM.

Une fois la v1 validée, ajouter un nouveau site devient une tâche d'une demi-journée.