
PERSNET
Structures PERsistantes dans les Réseaux Neuronaux :
approches topologiques et statistiques pour améliorer
l’apprentissage profond
Aperçu
La vision unificatrice de ce projet consiste à exploiter les domaines interdépendants de l’analyse géométrique et topologique des données et des statistiques à haute dimension afin d’améliorer la conception, l’analyse et la surveillance des architectures de réseaux neuronaux profonds (DNN).
Gilles Blanchard, Institut de Mathématiques d’Orsay, Université Paris-Saclay
Le projet PERSNET vise à créer de nouvelles méthodes et améliorations pour les réseaux neuronaux profonds (DNN) basées sur la topologie, la géométrie et les statistiques, en particulier afin de surveiller les architectures profondes, de les régulariser ou de les compresser, et de prendre en compte leur connectivité graphique et leurs invariants.
Mots clés : Géométrie, Apprentissage profond, Transformateurs, Analyse topologique des données,
Statistiques, Haute dimension
Nos missions
Nos recherches
Développer des outils mathématiques fondamentaux (analyse topologique et géométrique des données, statistiques) pour l’apprentissage profond.
Développer et analyser des descripteurs et des méthodes TDA multiparamétriques pour la
caractérisation, l’analyse et l’amélioration de l’apprentissage automatique et de l’apprentissage profond.
Utilisez des outils pour améliorer les architectures d’apprentissage profond pour les données complexes, à l’aide de descripteurs géométriques et topologiques.
Develop a toolbox of new efficient and well-founded mathematical tools to analyse, monitor and improve DNN models
Utilisez ces outils pour analyser et surveiller les architectures d’apprentissage profond elles-mêmes (objectifs : efficacité, fiabilité, explicabilité, détection des anomalies).
Approfondir la compréhension théorique des architectures modernes d’apprentissage profond, à partir d’outils issus de la représentation des réseaux dans l’espace des chemins et de sa géométrie, ainsi que des statistiques à haute dimension. L’objectif est de tirer parti de cette meilleure compréhension pour améliorer les capacités d’apprentissage des réseaux neuronaux et leur efficacité (par exemple par compression).
Le consortium
Université Paris-Saclay, Inria, Paris Sciences Lettres, Ecole Centrale de Nantes
- Publications dans des revues scientifiques internationales
- Production de logiciels dans des bibliothèques open source (par exemple, GUDHI)
- Intégration/sensibilisation aux applications industrielles
En fin de compte, les contributions du projet aux architectures d’apprentissage profond visent à améliorer :
- L’efficacité (compression du réseau) → une IA plus écologique/plus portable
- La fiabilité / la détection des anomalies / l’explicabilité (surveillance du réseau) → améliorer la confiance dans l’IA
- L’application à des données à structure complexe → applications pour l’industrie et la recherche scientifique
Une communauté de 12 chercheurs, professeurs chercheurs et ingénieurs permanents, à laquelle s’ajoutent trois doctorants et trois post-doctorants au fur et à mesure de l’avancement du projet.

Publications
Autres projets