#24 Interprétabilité des modèles de Machine Learning avec LIME

#24 Interprétabilité des modèles de Machine Learning avec LIME

L'utilisation de modèles de Machine Learning (ML) dans la résolution d'une grande variété de problèmes est de plus en plus populaire. Ces modèles mathématiques sont pour certains (comme les régressions linéaires ou bien les arbres de décisions) facilement interprétables. Cependant, les modèles ML à la pointe de la technologie, permettant de répondre à des problèmes complexes, comme les réseaux de neurones profonds, sont de facto des boîtes noires, au fonctionnement interne inaccessible. Cela soulève une question primordiale : puis-je avoir confiance dans les résultats donnés par mon modèle ?

En prenant l'exemple concret d'un algorithme de classification d'images utilisant un réseau de neurones, nous introduirons LIME, une technique novatrice permettant de visualiser les caractéristiques de l'image qui ont permis au modèle de prendre sa décision.

Florent Pajot, Samia Drappeau : Data Scientists chez Continental Intelligent Transportation Systems France

6aa4f3c589d3108830b371d0310bc4da?s=128

Toulouse Data Science

November 14, 2017
Tweet