> Formations > Technologies numériques > Intelligence Artificielle (IA) > L'IA dans les métiers et les IA génératives > Formation IA générative, comprendre, justifier et auditer l’explicabilité des modèles LLM

Formation : IA générative, comprendre, justifier et auditer l’explicabilité des modèles LLM

Expliquez, documentez et auditez les décisions des LLM dans vos projets IA

IA générative, comprendre, justifier et auditer l’explicabilité des modèles LLM

Expliquez, documentez et auditez les décisions des LLM dans vos projets IA


Nouvelle formation

Cette formation apporte aux participants les méthodes et outils pour analyser, expliquer et auditer les décisions des LLMs. Vous apprendrez à documenter, justifier et encadrer l’IA générative selon les principes éthiques et réglementaires.


INTER
INTRA
SUR MESURE

Cours pratique en présentiel ou à distance
Disponible en anglais, à la demande

Réf. LLO
  3j - 21h00
Prix : 2330 CHF H.T.




Cette formation apporte aux participants les méthodes et outils pour analyser, expliquer et auditer les décisions des LLMs. Vous apprendrez à documenter, justifier et encadrer l’IA générative selon les principes éthiques et réglementaires.


Objectifs pédagogiques
À l’issue de la formation, le participant sera en mesure de :
Comprendre les enjeux stratégiques de l’explicabilité pour l’adoption de l’IA générative.
Évaluer les risques métiers liés aux biais, erreurs et opacité des LLM.
Concevoir des politiques internes garantissant transparence et responsabilité des usages IA.
Déployer des méthodes et outils d’explicabilité pour renforcer confiance et contrôle.
Aligner la gouvernance IA avec les cadres réglementaires et les exigences de conformité.
Piloter l’audit et la supervision continue des projets GenAI en entreprise.

Public concerné
Architectes IA, data scientists, PO, juristes, fonctionnels, auditeurs internes et tout professionnel impliqué dans la responsabilité des systèmes IA.

Prérequis
Connaissances de base sur l’IA ou les LLMs. Pratique de la lecture et de la rédaction de prompts.

Modalités d'évaluation
Le formateur évalue la progression pédagogique du participant tout au long de la formation au moyen de QCM, mises en situation, travaux pratiques…
Le participant complète également un test de positionnement en amont et en aval pour valider les compétences acquises.

Programme de la formation

1
Pourquoi l’explicabilité est essentielle

  • Définitions : interprétabilité vs explicabilité.
  • Spécificités des modèles génératifs et des LLM.
  • Cas d’usage critiques : juridique, médical, RH, finance.
  • Risques liés à l’absence d’explication : confiance, adoption, conformité.

2
Explicabilité des LLMs, limites et leviers

  • Comment fonctionnent les LLM : boîtes noires ou systèmes réductibles ?
  • Prompts, mémoire, outputs : où sont les biais ?
  • Limitations structurelles : instabilité, hallucination, manque de traçabilité.
  • Reproductibilité : challenge ou mirage ?

3
Méthodes d’explicabilité dans le contexte GenAI

  • Prompt engineering orienté interprétabilité.
  • Approches « chain of thought », step-by-step reasoning.
  • Justification générée vs preuve calculée.
  • Éléments observables dans LangChain : logs, agents, tools.
Travaux pratiques
Analyse d’une réponse LLM et justification pas-à-pas. Analyse comparative génération correcte / incorrecte. Reconstruction de la chaîne de raisonnement. Visualisation du contexte et du prompt complet

4
Tracer, comprendre et expliquer via LangChain

  • Composants traçables dans LangChain : agents, tools, chain logs.
  • Logging, callback handlers, prompt templates explicites.
  • Introduction à TruLens, PromptLayer, Helicone, LangSmith.
  • Création d’un pipeline traçable.

5
Utiliser les ontologies et graphes pour expliquer

  • Structurer le savoir pour mieux l’expliquer.
  • Graphes de connaissance + LLM = contexte interprétable.
  • Ontologies métiers : support d’explication intelligible pour l’utilisateur.
  • Dialogue entre agent LLM et graphe structuré.
Travaux pratiques
Création d’un assistant explicable. Agent qui justifie ses réponses à partir d’un graphe/ontologie. Rédaction de prompts auto-explicatifs. Journalisation complète de la requête à la réponse

6
Explicabilité et cadre réglementaire

  • Ce que demandent le RGPD et l’IA Act (droit à l’explication, transparence).
  • Obligation de documentation, logs, reproductibilité.
  • Interfaces explicables : comment afficher une justification intelligible.
  • Le rôle de l’explicabilité dans les DPIA et les évaluations de risque.

7
Méthodes d’audit des systèmes GenAI

  • Créer un log explicatif : prompt + contexte + sources + raisonnement.
  • Contrôle qualité des réponses générées (hallucination, cohérence, biais).
  • Inclusion d’agents « critique » ou de score d’explication.
  • Évaluation humaine des raisonnements.
Travaux pratiques
Construire un système de réponse auditable. Cas : assistant juridique ou RH. Mise en place d’un flux complet avec justification, log d’audit. Démo d’une interface explicative (textuelle + graphique).