Il existe de nombreux types d’attaques contre les modèles de machine learning, dont une partie se consacre à révéler des informations confidentielles sur les données ayant servi à leur entraînement. Nous avons mis notre chapeau de hacker pour creuser le sujet et vous proposons, dans ce talk, de discuter de la crédibilité de telles menaces.
Dans un premier temps, nous détaillerons le fonctionnement d'une attaque qui a pour objectif de reconstituer les données d’entraînement à partir des outputs du modèle (model inversion attack). Ensuite, nous aborderons l’utilisation des mathématiques pour fiabiliser l’apprentissage des modèles de deep learning (differential privacy) et les concessions à faire en termes de performances.
Vidéo -> https://youtu.be/5VSIu0esquA