REDEEM

Apprentissage automatique résilient, décentralisé et respectueux de la vie privée

Aperçu

Un apprentissage automatique résilient, décentralisé et respectueux de la vie privée

Cédric Gouy-Pailler , Ingénieur Chercheur CEA
Sonia Ben Mokhtar, Directrice de recherche CNRS

Ce projet vise à explorer de nouvelles approches d’apprentissage distribuées résilientes, robustes aux bruits et attaques adverses et respectueuses de la vie privée. Ces approches distribuées doivent permettre d’aller au-delà de l’apprentissage fédéré actuel. D’un point de vue théorique, REDEEM vise à fournir des bases solides pour les approches proposées, et en particulier dans le cas où des protagonistes malveillants participeraient à la phase d’apprentissage, et avec l’objectif primordial d’assurer autant que possible la confidentialité des données. Au-delà des nouvelles approches de distribution de l’apprentissage, REDEEM vise également des implémentations efficaces, en offrant à la communauté des codes et des outils open-sources.

Mots clefs : Apprentissage automatique distribué ; Robustesse aux attaques ; apprentissage respectueux de la vie privée ; Résilience byzantine ; Optimisation distribuée ; Algorithmes de consensus en machine learning ; Grands modèles de langage.

Les missions

Nos recherches


Spécifications et guide pour la conception de système décentralisé avec l’identification des menaces associées

Formaliser le cadre fondateur du projet avec l’identification des fonctions primaires à remplir par le système d’apprentissage (détection, classification, recommandation), la définition mathématique des contraintes potentielles existantes (communication, ressources de calcul), et l’explicitation d’un ensemble de propriétés ciblées liées à la robustesse, à la confidentialité, à la résilience et aux capacités de personnalisation des systèmes.


Aspects algorithmiques de l’apprentissage décentralisé dans un environnement sans adversaire

Étude de l’apprentissage décentralisé en se concentrant sur les aspects algorithmiques tout en supposant que les participants soient honnêtes. Ces investigations prendront en compte des spécificités telles qu’un environnement dynamique et hétérogène, des modèles de très grande taille et la personnalisation.


Apprentissage décentralisé attaqué

Étude des nouvelles attaques byzantines et attaques contre la confidentialité, ainsi que les algorithmes de mitigation dans un environnement distribué.


Gestion avancée des compromis

Envisager des algorithmes d’apprentissage avancés avec de nouvelles stratégies d’optimisation sur des modèles de grande taille et décentralisés dans des réseaux dynamiques et dans un environnement hostile subissant des attaques.

Le consortium

CEA, INRIA, CNRS, Ecole Polytechnique, LAMSADE

Implantation du consortium

Autres projets

 SHARP
SHARP
Principes théoriques et algorithmiques de l’apprentissage frugal
Voir plus
 HOLIGRAIL
HOLIGRAIL
Approches holistiques pour les architectures plus efficaces pour l'inférence et l'apprentissage
Voir plus
 ADAPTING
ADAPTING
Architectures adaptatives pour l'intelligence artificielle embarquée
Voir plus
 EMERGENCES
EMERGENCES
Modèles émergents proche physique pour l'IA embarquée
Voir plus
 CAUSALI-T-AI
CAUSALI-T-AI
La causalité au service de la robustesse et de l’explicabilité des algorithmes d’IA
Voir plus
 FOUNDRY
FOUNDRY
Les fondements de la robustesse et de la fiabilité en intelligence artificielle
Voir plus
 SAIF
SAIF
Sûreté de l’intelligence artificielle investiguée par les méthodes formelles
Voir plus
 PDE-AI
PDE-AI
Nouvelles architectures pour l’apprentissage automatique
Voir plus