REDEEM

Apprentissage automatique résilient, décentralisé et respectueux de la vie privée

Aperçu

Un apprentissage automatique résilient, décentralisé et respectueux de la vie privée

Cédric Gouy-Pailler , Ingénieur Chercheur CEA
Sonia Ben Mokhtar, Directrice de recherche CNRS

Ce projet vise à explorer de nouvelles approches d’apprentissage distribuées résilientes, robustes aux bruits et attaques adverses et respectueuses de la vie privée. Ces approches distribuées doivent permettre d’aller au-delà de l’apprentissage fédéré actuel. D’un point de vue théorique, REDEEM vise à fournir des bases solides pour les approches proposées, et en particulier dans le cas où des protagonistes malveillants participeraient à la phase d’apprentissage, et avec l’objectif primordial d’assurer autant que possible la confidentialité des données. Au-delà des nouvelles approches de distribution de l’apprentissage, REDEEM vise également des implémentations efficaces, en offrant à la communauté des codes et des outils open-sources.

Mots clefs : Apprentissage automatique distribué ; Robustesse aux attaques ; apprentissage respectueux de la vie privée ; Résilience byzantine ; Optimisation distribuée ; Algorithmes de consensus en machine learning ; Grands modèles de langage.

Site web du projet : https://redeem-pepria.github.io

Les missions

Nos recherches


Spécifications et guide pour la conception de système décentralisé avec l’identification des menaces associées

Formaliser le cadre fondateur du projet avec l’identification des fonctions primaires à remplir par le système d’apprentissage (détection, classification, recommandation), la définition mathématique des contraintes potentielles existantes (communication, ressources de calcul), et l’explicitation d’un ensemble de propriétés ciblées liées à la robustesse, à la confidentialité, à la résilience et aux capacités de personnalisation des systèmes.


Aspects algorithmiques de l’apprentissage décentralisé dans un environnement sans adversaire

Étude de l’apprentissage décentralisé en se concentrant sur les aspects algorithmiques tout en supposant que les participants soient honnêtes. Ces investigations prendront en compte des spécificités telles qu’un environnement dynamique et hétérogène, des modèles de très grande taille et la personnalisation.


Apprentissage décentralisé attaqué

Étude des nouvelles attaques byzantines et attaques contre la confidentialité, ainsi que les algorithmes de mitigation dans un environnement distribué.


Gestion avancée des compromis

Envisager des algorithmes d’apprentissage avancés avec de nouvelles stratégies d’optimisation sur des modèles de grande taille et décentralisés dans des réseaux dynamiques et dans un environnement hostile subissant des attaques.

Le consortium

CEA, INRIA, CNRS LAMSADE, Ecole Polytechnique

Implantation du consortium

Publications


Autres projets

 NNawaQ
NNawaQ
NNawaQ (Neural Network Adequate Hardware Architecture for Quantization)
Voir plus
 Package Python Keops
Package Python Keops
Package Python Keops pour les calculs tensoriels en (très) grande dimension (projet PDE-AI)
Voir plus
 MPTorch
MPTorch
MPTorch, framework d’encapsulation construit sur PyTorch
Voir plus
 CaBRNeT
CaBRNeT
CaBRNeT, une bibliothèque pour le développement et l'évaluation de modèles de raisonnement basé sur des cas simplifiés (projet SAIF)
Voir plus
 SNN Software
SNN Software
SNN Software, un outil open-source pour le design SNN (projet EMERGENCES)
Voir plus
 SDOT
SDOT
SDOT, logiciel pour le transport optimal semi-discret
Voir plus
 FloPoCo
FloPoCo
FloPoCo (Floating-Point Cores), générateur de noyaux arithmétiques majoritairement pour les FPGA (projet HOLIGRAIL)
Voir plus
 Lazylinop
Lazylinop
Lazylinop (Lazy Linear Operator), un opérateur linéaire paresseux de haut niveau basé en Python (projet SHARP)
Voir plus
 CAISAR
CAISAR
CAISAR, une plateforme de caractérisation de la sécurité et de l’intelligence artificielle robuste (projet SAIF)
Voir plus
 P16
P16
P16 ou développer, diffuser et maintenir un ensemble de bibliothèques souveraines pour l'IA
Voir plus
 AIDGE
AIDGE
AIDGE ou la plateforme ouverte de développement en embarqué du projet DEEPGREEN
Voir plus
 Jean-Zay
Jean-Zay
Jean Zay ou l'infrastructure nationale pour la communauté de recherche en IA
Voir plus
 ADAPTING
ADAPTING
Architectures adaptatives pour l'intelligence artificielle embarquée
Voir plus
 Appel à chaires Attractivité
Appel à chaires Attractivité
Le PEPR IA offre aux chercheurs en IA l’opportunité d’établir et de diriger un programme de recherche et une équipe en France pour une durée de 4 ans.
Voir plus
 CAUSALI-T-AI
CAUSALI-T-AI
La causalité au service de la robustesse et de l’explicabilité des algorithmes d’IA
Voir plus
 EMERGENCES
EMERGENCES
Modèles émergents proche physique pour l'IA embarquée
Voir plus
 FOUNDRY
FOUNDRY
Les fondements de la robustesse et de la fiabilité en intelligence artificielle
Voir plus
 HOLIGRAIL
HOLIGRAIL
Approches holistiques pour les architectures plus efficaces pour l'inférence et l'apprentissage
Voir plus
 PDE-AI
PDE-AI
Nouvelles architectures pour l’apprentissage automatique
Voir plus
 SAIF
SAIF
Sûreté de l’intelligence artificielle investiguée par les méthodes formelles
Voir plus
 SHARP
SHARP
Principes théoriques et algorithmiques de l’apprentissage frugal
Voir plus