FOUNDRY

Les fondements de la robustesse et de la fiabilité en intelligence artificielle

Aperçu

Développer les fondements théoriques et méthodologiques de la robustesse et de la fiabilité nécessaires pour construire et insuffler la confiance dans les technologies et les systèmes d’IA.

Panayotis Mertikopoulos, Chargé de recherche CNRS

Le projet FOUNDRY met en exergue la notion de robustesse, qui a échappé au domaine depuis ses débuts. La cause en est la suivante : les systèmes d’apprentissage automatiques sont très gourmands en données et très sensibles aux exemples qui leur sont fournis, ce qui fragilise et les limite dans leur champ d’application.

L’objectif est donc de développer les fondements théoriques de cette robustesse et de cette fiabilité.

Mots clefs : Robustesse, fiabilité, théorie des jeux, théorie de l’information, transport optimal, confiance, équité

Site web du projet : En cours de création

Les missions

Nos recherches


Atteindre la résilience en présence d’obstacles centrés sur les données

Développer des algorithmes et des méthodologies pour surmonter les insuffisances des données d’apprentissage (valeurs aberrantes, observations incomplètes, changements d’étiquettes, empoisonnement, etc.), ainsi que de renforcer les modèles contre les obstacles qui pourraient survenir au moment de l’inférence (attaques adversariales).


Favoriser l’adaptation de ces modèles et algorithmes lorsqu’ils sont déployés et qu’ils interagissent entre eux dans des environnements réels

Développer les outils théoriques et techniques nécessaires à ces systèmes d’IA capables de s’adapter instantanément aux environnements non stationnaires et proposer des garanties entre le pire.


Atteindre la robustesse en présence de buts et d’objectifs contradictoires

Délimiter précisément la manière dont ces objectifs interagissent avec les mesures de performance standard et caractériser les limites fondamentales de performance des modèles d’IA lorsque les données sont fournies par des agents égoïstes qui
imposent des changements de distribution délibérés.

Le consortium

CNRS, Université Paris-Dauphine, INRIA, Institut Mines Télécom, Ecole normale supérieure de Lyon, Université de Lille, ENSAE Paris, Ecole Polytechnique Palaiseau

Implantation du consortium

Publications


Autres projets

 NNawaQ
NNawaQ
NNawaQ (Neural Network Adequate Hardware Architecture for Quantization)
Voir plus
 Package Python Keops
Package Python Keops
Package Python Keops pour les calculs tensoriels en (très) grande dimension (projet PDE-AI)
Voir plus
 MPTorch
MPTorch
MPTorch, framework d’encapsulation construit sur PyTorch
Voir plus
 CaBRNeT
CaBRNeT
CaBRNeT, une bibliothèque pour le développement et l'évaluation de modèles de raisonnement basé sur des cas simplifiés (projet SAIF)
Voir plus
 SNN Software
SNN Software
SNN Software, un outil open-source pour le design SNN (projet EMERGENCES)
Voir plus
 SDOT
SDOT
SDOT, logiciel pour le transport optimal semi-discret
Voir plus
 FloPoCo
FloPoCo
FloPoCo (Floating-Point Cores), générateur de noyaux arithmétiques majoritairement pour les FPGA (projet HOLIGRAIL)
Voir plus
 Lazylinop
Lazylinop
Lazylinop (Lazy Linear Operator), un opérateur linéaire paresseux de haut niveau basé en Python (projet SHARP)
Voir plus
 CAISAR
CAISAR
CAISAR, une plateforme de caractérisation de la sécurité et de l’intelligence artificielle robuste (projet SAIF)
Voir plus
 P16
P16
P16 ou développer, diffuser et maintenir un ensemble de bibliothèques souveraines pour l'IA
Voir plus
 AIDGE
AIDGE
AIDGE ou la plateforme ouverte de développement en embarqué du projet DEEPGREEN
Voir plus
 Jean-Zay
Jean-Zay
Jean Zay ou l'infrastructure nationale pour la communauté de recherche en IA
Voir plus
 ADAPTING
ADAPTING
Architectures adaptatives pour l'intelligence artificielle embarquée
Voir plus
 Appel à chaires Attractivité
Appel à chaires Attractivité
Le PEPR IA offre aux chercheurs en IA l’opportunité d’établir et de diriger un programme de recherche et une équipe en France pour une durée de 4 ans.
Voir plus
 CAUSALI-T-AI
CAUSALI-T-AI
La causalité au service de la robustesse et de l’explicabilité des algorithmes d’IA
Voir plus
 EMERGENCES
EMERGENCES
Modèles émergents proche physique pour l'IA embarquée
Voir plus
 HOLIGRAIL
HOLIGRAIL
Approches holistiques pour les architectures plus efficaces pour l'inférence et l'apprentissage
Voir plus
 PDE-AI
PDE-AI
Nouvelles architectures pour l’apprentissage automatique
Voir plus
 REDEEM
REDEEM
Apprentissage automatique résilient, décentralisé et respectueux de la vie privée
Voir plus
 SAIF
SAIF
Sûreté de l’intelligence artificielle investiguée par les méthodes formelles
Voir plus
 SHARP
SHARP
Principes théoriques et algorithmiques de l’apprentissage frugal
Voir plus