Le projet Ariane déploie un chatbot qui répond, monétise et relie les sites Reworld Media. 🪡
🪡 Le projet Ariane déploie un assistant conversationnel embarqué sur nos sites. Il fait trois choses :
Une expérience unique, trois leviers de valeur. Le tout piloté depuis RMR 📊, notre cockpit interne, avec deux vues dédiées :
L'assistant éditorial contextuel qui s'appuie uniquement sur notre corpus.
L'inventaire publicitaire conversationnel, intégré sans friction.
Le maillage des sites du groupe, par similarité sémantique.


Ce qu'ils font bien. Widget chat, console publisher, console advertiser (campagnes CPC, budgets, ciblage).
Ce qu'on garde. La structure de campagne — standard du marché.


Ce qu'ils font. Analytics Grafana — mais en mieux, leur dashboard est horrible. Complexe, peu friendly, impossible à présenter à un annonceur.
Ce qu'on garde. La granularité des métriques. Ce qu'on refait — l'UX, de zéro, dans RMR.
Mockup basé sur le chatbot actuel de Modes & Travaux — même logique visuelle, adaptée à notre moteur. Regarde le widget s'animer à mesure que tu descends.
L'isolation thermique reste le levier n°1 pour faire baisser sa consommation. Avant de se lancer dans de gros travaux, plusieurs gestes simples permettent déjà de gagner 15 à 25% sur la facture annuelle.
Rideaux thermiques, boudins de porte, films pour fenêtres : on fait le point sur les solutions accessibles et efficaces pour passer l'hiver sans exploser son budget chauffage…
Deux vues, un seul cockpit : éditeur (consultation) et régie (création et pilotage des campagnes). Aucune interface externe pour l'annonceur.
L'enjeu n°1 : s'assurer que le chatbot ne raconte jamais n'importe quoi. Qu'il reste collé à notre contenu, sans halluciner, sans sortir du sujet du site. Voici comment on s'y prend, étape par étape.
Toute la production éditoriale des 20+ sites du groupe est indexée en continu. Chaque article, chaque paragraphe, est analysé et rendu recherchable.
À chaque question du lecteur, on identifie les passages les plus pertinents de notre corpus. Pas de recherche Google, pas de recherche sur le web ouvert. Uniquement sur notre production éditoriale.
C'est le cœur du dispositif. Le LLM (Gemini, par exemple) reçoit les passages qu'on lui a sélectionnés + un prompt strict qui lui interdit d'inventer, de compléter avec sa connaissance générale, ou de sortir de la thématique du site.
En parallèle, on regarde si une campagne publicitaire active correspond au contexte. Si oui, elle est glissée dans les suggestions. Si aucune ne matche, pas de pub.
Si la question dépasse le périmètre du site, on propose un article d'un autre site du groupe. Le lecteur reste dans l'écosystème Reworld.
Toute réponse est reliée à un article existant. Pas de source, pas de réponse.
Le chatbot d'un site auto ne parlera jamais santé mentale ou politique.
Les prompts sont centralisés et modifiables par l'équipe éditoriale sans passer par la tech.
Le LLM reçoit à chaque conversation un prompt strict qui lui dicte ses règles. Version simplifiée :
Tu es l'assistant conversationnel du site Modes & Travaux. Ton périmètre : maison, bricolage, décoration, jardinage, rénovation. RÈGLES : 1. Pour les questions de conseil, recommandation, chiffres précis, utilise UNIQUEMENT les passages fournis dans CONTEXTE. Cite systématiquement l'article source. 2. Pour les faits généraux évidents dans notre thématique, tu peux répondre brièvement depuis ta connaissance. 3. Pour les questions hors périmètre, tu dis : "Cette question sort du périmètre de Modes & Travaux." 4. Si tu doutes, tu refuses. Jamais d'invention. CONTEXTE : {passages_récupérés_dans_notre_corpus} QUESTION : {question_du_lecteur}En direct
Clique sur un cas pour voir la conversation se jouer en temps réel.
Un petit modèle rapide analyse la question. Hors thématique ? Stop immédiat.
Passages pertinents via embeddings. Si rien ne matche, la réponse est "je ne sais pas".
Le LLM reçoit les passages + règles explicites. Il est cadré, pas libre.
On vérifie que la réponse est bien groundée dans les passages fournis. Sinon, rejetée.
Les interrogations revenues le plus souvent pendant la préparation du projet.
Ce n'est pas une question de qualité, mais de stratégie et responsabilité. Six raisons :
Oui. Le prompt distingue trois types :
Pas une liste de mots-clés bêtes (trop fragile). Trois approches :
Le périmètre est défini par site. Ce qui est banni chez M&T peut être le cœur du métier de Doctissimo.
Un peu au démarrage. Taux typique : 2-5% de faux refus les premières semaines, puis sous 1% après ajustements. On sample, on identifie, on affine le prompt via LLPR.
Principe : refuser à tort (agaçant) est moins grave que répondre à tort (catastrophe RP).
Avec des embeddings — pas du LLM, très rapide, peu cher.
Quelques millisecondes, ~100× moins cher qu'un appel LLM.
adn_post récupère déjà les articles.widget.js avec le token publisher.Une demi-journée par site, une fois la v1 stabilisée.