PRODIGE-AI

PRObability, ranDom matrIx theory, Geometry and gEneralization for generative-AI

Aperçu

Développer des fondements mathématiques rigoureux pour le problème de généralisation dans l’IA générative

Amaury Habrard, Professeur, Université Jean Monnet Saint-Etienne

Le projet PRODIGE-AI vise à concevoir de nouveaux modèles théoriques pour une IA générative plus fiable, plus efficace et plus transparente, autour de trois axes principaux. Le premier axe a pour objectif de développer de nouveaux cadres théoriques permettant de mieux comprendre les capacités de généralisation des modèles d’IA générative. Le deuxième axe porte sur l’élaboration de stratégies innovantes pour des modèles d’IA générative à la fois efficaces et explicables. Le troisième et dernier axe vise à concevoir des cadres géométriques pour l’IA générative, en mettant un accent particulier sur les graphes.

Le projet s’appuie sur des outils mathématiques avancés, incluant la théorie des probabilités, les matrices aléatoires et la géométrie, et se concentre sur les modèles de diffusion, le flow matching, les transformers et les state-space models. Le projet vise également à étudier l’intrication dans les représentations apprises, ainsi que les phénomènes de collapse et d’hallucination, afin de mieux comprendre les biais et limites des modèles génératifs.

Mots clefs : IA générative, généralisation, apprentissage statistique, théorie des probabilités, théorie des matrices aléatoires, théorie de l’information, théorie des graphes, géométrie.

Les missions

Nos recherches


Mieux comprendre la problématique de généralisation en IA générative

Dériver des garanties de généralisation notamment sous la forme de bornes en généralisation à l’aide de cadres mathématiques relevant de la théorie de la concentration, des matrices aléatoires ou des tenseurs aléatoires.

Identifier les éléments de “complexité” clés caractérisant le processus de généralisation et modélisant la capacité de créativité.

Dériver des algorithmes auto-certifiés, c’est-à-dire minimisant directement une borne en généralisation, en tirant partie de la théorie PAC-Bayes avec étude des schémas de compression.

Revisiter les modèles de diffusion et flow matching sous l’angle de la formulation variationnelle de la théorie des filtres, du filtrage continu et des propriétés des champs de vitesse.


Améliorer l’explicabilité et l’efficacité des modèles d’IA générative

Utiliser la théorie de l’information et l’analyse de sensibilité pour désintriquer les facteurs générateurs et explorer leurs relations causales.

Exploiter la théorie de l’information quantique et les tenseurs aléatoires pour caractériser les phénomènes d’effondrement (mode collapse) et développer des techniques de réglages fins efficaces des paramètres.

Tirer parti de la théorie des matrices aléatoires et de la théorie des probabilités libres afin de mieux comprendre et expliquer le fonctionnement des modèles d’IA générative.

Utiliser le cadre de l’algèbre C* pour définir de nouveaux modèles expressifs et économes en données.


Développer des approches géométriques pour l’IA générative

Tirer parti de la théorie des invariants pour construire des plongements de graphes et améliorer les réseaux neuronaux équivariants pour l’IA générative.

Étudier les capacités de génération en fonction de propriétés métriques des espaces latents, notamment à l’aide de la conception de nouvelles distances permettant de mieux capturer des propriétés géométriques pertinentes pour le processus d’apprentissage.

Concevoir de nouvelles approches d’estimation de distribution sur des espaces de graphes pour développer de nouveaux modèles génératifs de graphes basés sur les cadres de diffusion, flow matching, ou transport optimal.

Le consortium

Université Jean Monnet Saint-Etienne, CNRS, Inria, Université Côte d’Azur, Aix-Marseille Université, Université de Toulouse, Ecole Centrale de Marseille, INSA Rouen Normandie, Université de Rouen Normandie

Publications


Autres projets

 Géné-Pi
Géné-Pi
Mathématiques des modèles génératifs
Voir plus
 MacLeOD
MacLeOD
Apprentissage machine sur geometries et distributions
Voir plus
 MadLearning
MadLearning
Mathématiques de l'apprentissage profond : De la théorie aux applications
Voir plus
 MAGICALL
MAGICALL
Mathématiques des modèles génératifs: une analyse interdisciplinaire des paysages de fonctions de perte
Voir plus
 PERSNET
PERSNET
Structures PERsistantes dans les Réseaux Neuronaux
Voir plus
 TENSOR4ML
TENSOR4ML
Méthodes TENSORielles pour maîtriser l'apprentissage automatique moderne
Voir plus
 THEOREM
THEOREM
Théorie pour des modèles génératifs plus performants
Voir plus
 Appel à chaires Attractivités
Appel à chaires Attractivités
Le Programme de recherche PEPR IA ouvre son appel à chaires Attractivité, à destination de chercheurs juniors et seniors, avec pour principal critère un excellent parcours en recherche dans les thèmes du PEPR IA.
Voir plus
 NNawaQ
NNawaQ
NNawaQ (Neural Network Adequate Hardware Architecture for Quantization)
Voir plus
 Package Python Keops
Package Python Keops
Package Python Keops pour les calculs tensoriels en (très) grande dimension (projet PDE-AI)
Voir plus
 MPTorch
MPTorch
MPTorch, framework d’encapsulation construit sur PyTorch
Voir plus
 FloPoCo
FloPoCo
FloPoCo (Floating-Point Cores), générateur de noyaux arithmétiques majoritairement pour les FPGA (projet HOLIGRAIL)
Voir plus
 CaBRNeT
CaBRNeT
CaBRNeT, une bibliothèque pour le développement et l'évaluation de modèles de raisonnement basé sur des cas simplifiés (projet SAIF)
Voir plus
 SNN Software
SNN Software
SNN Software, un outil open-source pour le design SNN (projet EMERGENCES)
Voir plus
 SDOT
SDOT
SDOT, logiciel pour le transport optimal semi-discret
Voir plus
 Lazylinop
Lazylinop
Lazylinop (Lazy Linear Operator), un opérateur linéaire paresseux de haut niveau basé en Python (projet SHARP)
Voir plus
 CAISAR
CAISAR
CAISAR, une plateforme de caractérisation de la sécurité et de l’intelligence artificielle robuste (projet SAIF)
Voir plus
 P16
P16
P16 ou développer, diffuser et maintenir un ensemble de bibliothèques souveraines pour l'IA
Voir plus
 AIDGE
AIDGE
AIDGE ou la plateforme ouverte de développement en embarqué du projet DEEPGREEN
Voir plus
 Jean-Zay
Jean-Zay
Jean Zay ou l'infrastructure nationale pour la communauté de recherche en IA
Voir plus
 ADAPTING
ADAPTING
Architectures adaptatives pour l'intelligence artificielle embarquée
Voir plus
 Bourse CEA AI Rising Talents
Bourse CEA AI Rising Talents
Le programme CEA AI Rising Talents, vous offre une formidable opportunité de concrétiser vos idées et de diriger votre propre projet de recherche au bénéfice de l’industrie et de la société.
Voir plus
 CAUSALI-T-AI
CAUSALI-T-AI
La causalité au service de la robustesse et de l’explicabilité des algorithmes d’IA
Voir plus
 EMERGENCES
EMERGENCES
Modèles émergents proche physique pour l'IA embarquée
Voir plus
 FOUNDRY
FOUNDRY
Les fondements de la robustesse et de la fiabilité en intelligence artificielle
Voir plus
 HOLIGRAIL
HOLIGRAIL
Approches holistiques pour les architectures plus efficaces pour l'inférence et l'apprentissage
Voir plus
 PDE-AI
PDE-AI
Nouvelles architectures pour l’apprentissage automatique
Voir plus
 REDEEM
REDEEM
Apprentissage automatique résilient, décentralisé et respectueux de la vie privée
Voir plus
 SAIF
SAIF
Sûreté de l’intelligence artificielle investiguée par les méthodes formelles
Voir plus
 SHARP
SHARP
Principes théoriques et algorithmiques de l’apprentissage frugal
Voir plus