
THEOREM
Théorie pour des modèles génératifs plus performants
Aperçu
Vers une meilleure compréhension des modèles génératifs afin de guider leur ajustement, leur spécialisation et leur équité, grâce à un cadre mathématique unifié fondé sur le contrôle optimal stochastique.
Alain Oliviero Durmus, Professeur, Ecole polytechnique
Les modèles génératifs ont transformé la génération d’images, de textes ou de structures scientifiques, mais leur conception reste souvent empirique et difficile à contrôler.
Le projet THEOREM propose de « repartir des fondations » en développant un cadre mathématique unifié pour expliquer ce qui fait la performance de ces modèles, et ce qui cause leurs échecs (instabilité, biais, mémorisation, manque de robustesse).
L’objectif est de traduire des recettes pratiques (schedules, pas de temps, choix d’objectifs) en principes de conception, avec des garanties de stabilité et de précision.
Le projet vise aussi à mieux comprendre comment adapter un modèle à une tâche ou un domaine (spécialisation), tout en surveillant la fiabilité et l’équité.
Enfin, il s’agit de passer d’une IA générative « artisanale » à une IA générative plus auditable et responsable.
Mots clefs : modèles génératifs, diffusion models, normalizing flows, energy-based models, contrôle optimal stochastique, stabilité, convergence, fine-tuning, spécialisation, robustesse, équité/fairness, incertitude, biais, IA pour les sciences.
Les missions
Nos recherches
Unifier les modèles génératifs dans un langage commun
Proposer un cadre théorique qui relie diffusion et flows via une formulation en contrôle optimal stochastique, afin de comparer, expliquer et combiner les approches de façon cohérente
Transformer l’heuristique en méthode
Dériver des règles de conception pour les choix clés (objectifs d’entraînement, schedules, discrétisation, solveurs) et établir des critères pratiques pour guider le réglage fin (fine-tuning).
Garantir et diagnostiquer la fiabilité
Développer des outils d’analyse et des garanties (stabilité, erreurs, sensibilité) pour comprendre quand un modèle déraille, pourquoi, et comment le corriger de manière robuste.
Rendre la spécialisation plus sûre et plus efficace
Etudier des stratégies de spécialisation (adaptation à un domaine, à un type de données, à une contrainte physique) tout en contrôlant la généralisation, l’incertitude et les risques de surapprentissage/mémorisation.
Mettre l’équité au cœur de l’ingénierie générative
Analyser comment les biais apparaissent et se propagent dans l’entraînement et l’échantillonnage, et proposer des mécanismes de régularisation/diagnostic pour améliorer la fairness sans sacrifier la qualité.
Le consortium
Université Clermont Auvergne, Université Paris Dauphine, Ecole Polytechnique de Paris
Un cadre théorique unifié (diffusion/flows/EBM) permettant d’expliquer la performance et les limites des modèles génératifs, avec des ponts clairs entre apprentissage, génération et contrôle.
Des garanties et outils d’analyse (stabilité, convergence, bornes d’erreur, sensibilité) utiles pour concevoir et comparer des algorithmes de génération.
Des principes de conception concrets pour le fine-tuning et la spécialisation (choix de schedules/solveurs/objectifs), afin de réduire la dépendance aux essais-erreurs.
Des méthodes et diagnostics pour fiabilité/équité : quantification d’incertitude, détection de mémorisation, et recommandations pour limiter biais et comportements indésirables.
Des modèles génératifs plus fiables et plus transparents : moins de “boîte noire”, davantage de diagnostic, et des choix algorithmiques mieux justifiés — un enjeu central pour la confiance et la responsabilité.
Une meilleure maîtrise des risques : biais, hallucinations, mémorisation de données sensibles, instabilités — avec des outils pour détecter et réduire ces problèmes.
Un levier pour l’IA au service des sciences : modèles plus robustes pour la découverte scientifique (chimie, biologie, physique, climat), où la qualité et la cohérence comptent autant que la performance brute.
Un gain d’efficacité et de sobriété : en réduisant le tuning empirique et les cycles d’essais, le projet peut contribuer à des pipelines plus reproductibles et potentiellement moins coûteux en calcul.
Une communauté de plusieurs chercheurs, enseignements chercheurs et ingénieurs permanents, mobilisant en outre 4 doctorants et 1 post-doctorant au fur et à mesure du projet.

Publications
Autres projets