Géné-Pi

Mathématiques des modèles génératifs

Aperçu

Claire Boyer, PR, Université Paris-Saclay

Le projet Géné-Pi projet vise à développer un cadre théorique unifié pour mieux comprendre et améliorer les architectures de deep learning de type Transformers et modèles de diffusion. L’objectif est ainsi d’accroître leur fiabilité, leur efficacité et leur applicabilité dans des contextes variés, notamment en apprentissage auto-supervisé, génération de données et modélisation contrainte par la physique.

Mots clefs : Transformer-based models, attention layers, diffusion-based generative models

Les missions

Nos recherches


Comprendre le rôle de l’optimisation et ses impacts statistiques des modèles profonds

Analyser comment les trajectoires d’optimisation (gradient descent, choix des hyperparamètres) induisent des biais implicites
qui influencent la généralisation et la robustesse des modèles.
Combiner outils de théorie statistique et d’optimisation pour étudier conjointement erreurs d’optimisation et erreurs
statistiques sur des modèles simplifiés mais représentatifs.


Élucider les mécanismes internes des Transformers

Comprendre comment les Transformers apprennent à extraire et structurer l’information, et identifier les situations où les
mécanismes d’attention échouent (entanglement des têtes).
Étudier des tâches statistiques contrôlées (régression multi-localisation, clustering, auto-supervision) et analyser les
minima locaux et dynamiques d’apprentissage afin de proposer des correctifs algorithmiques et architecturaux.


Relier Transformers et méthodes statistiques classiques de réduction de dimension

Montrer comment certaines architectures Transformer apprennent des représentations proches de méthodes classiques (PCA,
PLS), tout en offrant plus de flexibilité.
Adopter une vision continue des couches d’attention comme opérateurs agissant sur des distributions, et analyser leur
apprentissage par descente de gradient dans des cadres gaussiens et semi-gaussiens.


Déconstruire le “boîte noire” du score matching dans les modèles de diffusion

Expliquer pourquoi et comment les modèles de diffusion apprennent efficacement des lois complexes sans mémoriser
excessivement les données.
Étudier le rôle de la régularisation implicite induite par l’optimisation, analyser les lois d’échelle (scaling laws) et leur
lien avec la stabilité et la généralisation du score appris


Améliorer l’échantillonnage et intégrer des contraintes physiques dans les modèles génératifs

Rendre les modèles de diffusion plus efficaces, interprétables et adaptés à des données non euclidiennes, discrètes ou
gouvernées par des lois physiques.
Explorer des alternatives aux bruits gaussiens isotropes, développer des diffusions compatibles avec des structures
discrètes, et intégrer des contraintes issues d’EDP via des cadres théoriques fondés sur les noyaux.

Le consortium

Université Paris-Saclay, Inria, Sorbonne Université

Publications


Autres projets

 MacLeOD
MacLeOD
Apprentissage machine sur geometries et distributions
Voir plus
 MadLearning
MadLearning
Mathématiques de l'apprentissage profond : De la théorie aux applications
Voir plus
 MAGICALL
MAGICALL
Mathématiques des modèles génératifs: une analyse interdisciplinaire des paysages de fonctions de perte
Voir plus
 PERSNET
PERSNET
Structures PERsistantes dans les Réseaux Neuronaux
Voir plus
 PRODIGE-AI
PRODIGE-AI
PRObability, ranDom matrIx theory, Geometry and gEneralization for generative-AI
Voir plus
 TENSOR4ML
TENSOR4ML
Méthodes TENSORielles pour maîtriser l'apprentissage automatique moderne
Voir plus
 THEOREM
THEOREM
Théorie pour des modèles génératifs plus performants
Voir plus
 Appel à chaires Attractivités
Appel à chaires Attractivités
Le Programme de recherche PEPR IA ouvre son appel à chaires Attractivité, à destination de chercheurs juniors et seniors, avec pour principal critère un excellent parcours en recherche dans les thèmes du PEPR IA.
Voir plus
 NNawaQ
NNawaQ
NNawaQ (Neural Network Adequate Hardware Architecture for Quantization)
Voir plus
 Package Python Keops
Package Python Keops
Package Python Keops pour les calculs tensoriels en (très) grande dimension (projet PDE-AI)
Voir plus
 MPTorch
MPTorch
MPTorch, framework d’encapsulation construit sur PyTorch
Voir plus
 FloPoCo
FloPoCo
FloPoCo (Floating-Point Cores), générateur de noyaux arithmétiques majoritairement pour les FPGA (projet HOLIGRAIL)
Voir plus
 CaBRNeT
CaBRNeT
CaBRNeT, une bibliothèque pour le développement et l'évaluation de modèles de raisonnement basé sur des cas simplifiés (projet SAIF)
Voir plus
 SNN Software
SNN Software
SNN Software, un outil open-source pour le design SNN (projet EMERGENCES)
Voir plus
 SDOT
SDOT
SDOT, logiciel pour le transport optimal semi-discret
Voir plus
 Lazylinop
Lazylinop
Lazylinop (Lazy Linear Operator), un opérateur linéaire paresseux de haut niveau basé en Python (projet SHARP)
Voir plus
 CAISAR
CAISAR
CAISAR, une plateforme de caractérisation de la sécurité et de l’intelligence artificielle robuste (projet SAIF)
Voir plus
 P16
P16
P16 ou développer, diffuser et maintenir un ensemble de bibliothèques souveraines pour l'IA
Voir plus
 AIDGE
AIDGE
AIDGE ou la plateforme ouverte de développement en embarqué du projet DEEPGREEN
Voir plus
 Jean-Zay
Jean-Zay
Jean Zay ou l'infrastructure nationale pour la communauté de recherche en IA
Voir plus
 ADAPTING
ADAPTING
Architectures adaptatives pour l'intelligence artificielle embarquée
Voir plus
 Bourse CEA AI Rising Talents
Bourse CEA AI Rising Talents
Le programme CEA AI Rising Talents, vous offre une formidable opportunité de concrétiser vos idées et de diriger votre propre projet de recherche au bénéfice de l’industrie et de la société.
Voir plus
 CAUSALI-T-AI
CAUSALI-T-AI
La causalité au service de la robustesse et de l’explicabilité des algorithmes d’IA
Voir plus
 EMERGENCES
EMERGENCES
Modèles émergents proche physique pour l'IA embarquée
Voir plus
 FOUNDRY
FOUNDRY
Les fondements de la robustesse et de la fiabilité en intelligence artificielle
Voir plus
 HOLIGRAIL
HOLIGRAIL
Approches holistiques pour les architectures plus efficaces pour l'inférence et l'apprentissage
Voir plus
 PDE-AI
PDE-AI
Nouvelles architectures pour l’apprentissage automatique
Voir plus
 REDEEM
REDEEM
Apprentissage automatique résilient, décentralisé et respectueux de la vie privée
Voir plus
 SAIF
SAIF
Sûreté de l’intelligence artificielle investiguée par les méthodes formelles
Voir plus
 SHARP
SHARP
Principes théoriques et algorithmiques de l’apprentissage frugal
Voir plus