CAUSALI-T-AI

La causalité au service de la robustesse et de l’explicabilité des algorithmes d’IA

Aperçu

Proposer des approches, basées sur une modélisation causale, afin de rendre les algorithmes d’IA plus robustes et plus explicables.

Marianne Clausel, Professeure des Universités, Université de Lorraine

Le projet CAUSALI-T-AI défend l’idée que les approches causales peuvent contribuer à rendre le cycle de l’IA (des données aux modèles, des modèles aux décisions et des décisions aux nouvelles données) plus robuste et plus explicable.

Les verrous scientifiques concernent autant l’apprentissage de représentation causale, que les questions d’inférence. Les applications visées sont multiples et vont de la médecine personnalisée à l’économie en passant par l’énergie ou l’environnement.

Mots clefs : IA, modélisation causale, machine learning (ML)

Site internet du projet : https://sites.google.com/view/causali-t-ai/home?authuser=0

Les missions

Nos recherches


Etudier l’apprentissage de représentations causales

Découvrir des structures latentes riches et construire des représentations à la fois utiles à des tâches d’apprentissage automatique et causalement bien fondées.


Combiner inférence causale et adaptation de domaine

Développer des méthodes permettant d’adapter des modèles causaux d’un domaine source à des domaines cibles, et de proposer des interventions visant un but donné (algorithmic recourse).


Etudier l’apprentissage causal dans des environnements incertains

Développer des méthodes capables de répondre à des questions contrefactuelles dans des environnements incertains.


Construire des benchmarks pour la recherche

Référencer tous les codes open source développés dans le projet.

Le consortium

Université Grenoble Alpes, Université de Lorraine, Université Paris-Saclay,, CNRS, INRIA

Implantation du consortium

Autres projets

 SHARP
SHARP
Principes théoriques et algorithmiques de l’apprentissage frugal
Voir plus
 HOLIGRAIL
HOLIGRAIL
Approches holistiques pour les architectures plus efficaces pour l'inférence et l'apprentissage
Voir plus
 ADAPTING
ADAPTING
Architectures adaptatives pour l'intelligence artificielle embarquée
Voir plus
 EMERGENCES
EMERGENCES
Modèles émergents proche physique pour l'IA embarquée
Voir plus
 REDEEM
REDEEM
Apprentissage automatique résilient, décentralisé et respectueux de la vie privée
Voir plus
 FOUNDRY
FOUNDRY
Les fondements de la robustesse et de la fiabilité en intelligence artificielle
Voir plus
 SAIF
SAIF
Sûreté de l’intelligence artificielle investiguée par les méthodes formelles
Voir plus
 PDE-AI
PDE-AI
Nouvelles architectures pour l’apprentissage automatique
Voir plus