L’apprentissage automatique (ML) et l’intelligence artificielle (IA) alimentent actuellement une majorité de services d’IA innovants et contribuent à de nombreuses découvertes scientifiques dans les domaines orientés données. Les nouveaux modèles de ML, comme les réseaux de neurones profonds, doivent être entraînés sur un grand nombre d’observations individuelles afin d’apprendre des modèles complexes, et dans de nombreux cas, l’ensemble de données d’entraînement contient des données personnelles.
L’omniprésence du ML et de l’IA exploitant des données personnelles pour une multitude de décisions impactant le quotidien des individus soulève des problèmes de confidentialité et de sécurité pour les participants.
L’enjeu scientifique ici, consiste à évaluer l’impact des nouvelles technologies de ML et d’IA sur la confidentialité et la sécurité des participants.
Plusieurs équipes du projet IPoP travaillent sur cet axe avec par exemple des travaux sur la quantification des risques de fuite d’informations personnelles liés à l’exploitation de modèle d’apprentissage ou sur la conception de mécanismes pour limiter ces risques.
Le projet ambitionne de fournir des solutions d’IA permettant de fournir un niveau de confidentialité interprétable et transparent pour les utilisateurs, ainsi que de nouvelles formes d’apprentissage fédéré évitant le partage de données entre les différentes parties.