1
Pourquoi l’explicabilité est essentielle
- Définitions : interprétabilité vs explicabilité.
- Spécificités des modèles génératifs et des LLM.
- Cas d’usage critiques : juridique, médical, RH, finance.
- Risques liés à l’absence d’explication : confiance, adoption, conformité.
2
Explicabilité des LLMs, limites et leviers
- Comment fonctionnent les LLM : boîtes noires ou systèmes réductibles ?
- Prompts, mémoire, outputs : où sont les biais ?
- Limitations structurelles : instabilité, hallucination, manque de traçabilité.
- Reproductibilité : challenge ou mirage ?
3
Méthodes d’explicabilité dans le contexte GenAI
- Prompt engineering orienté interprétabilité.
- Approches « chain of thought », step-by-step reasoning.
- Justification générée vs preuve calculée.
- Éléments observables dans LangChain : logs, agents, tools.
Travaux pratiques
Analyse d’une réponse LLM et justification pas-à-pas. Analyse comparative génération correcte / incorrecte. Reconstruction de la chaîne de raisonnement. Visualisation du contexte et du prompt complet
4
Tracer, comprendre et expliquer via LangChain
- Composants traçables dans LangChain : agents, tools, chain logs.
- Logging, callback handlers, prompt templates explicites.
- Introduction à TruLens, PromptLayer, Helicone, LangSmith.
- Création d’un pipeline traçable.
5
Utiliser les ontologies et graphes pour expliquer
- Structurer le savoir pour mieux l’expliquer.
- Graphes de connaissance + LLM = contexte interprétable.
- Ontologies métiers : support d’explication intelligible pour l’utilisateur.
- Dialogue entre agent LLM et graphe structuré.
Travaux pratiques
Création d’un assistant explicable. Agent qui justifie ses réponses à partir d’un graphe/ontologie. Rédaction de prompts auto-explicatifs. Journalisation complète de la requête à la réponse
6
Explicabilité et cadre réglementaire
- Ce que demandent le RGPD et l’IA Act (droit à l’explication, transparence).
- Obligation de documentation, logs, reproductibilité.
- Interfaces explicables : comment afficher une justification intelligible.
- Le rôle de l’explicabilité dans les DPIA et les évaluations de risque.
7
Méthodes d’audit des systèmes GenAI
- Créer un log explicatif : prompt + contexte + sources + raisonnement.
- Contrôle qualité des réponses générées (hallucination, cohérence, biais).
- Inclusion d’agents « critique » ou de score d’explication.
- Évaluation humaine des raisonnements.
Travaux pratiques
Construire un système de réponse auditable. Cas : assistant juridique ou RH. Mise en place d’un flux complet avec justification, log d’audit. Démo d’une interface explicative (textuelle + graphique).