Go to content

Interprétabilité des modèles de Machine Learning avec LIME (Samia Drappeau et Florent Pajot)

Introduction pratique à LIME (Local Interpretable Model-Agnostic Explanations), un pas supplémentaire vers l'interprétabilité des modèles de Machine Learning. L'utilisation de modèles de Machine Learning (ML) dans la résolution d'une grande variété de problèmes est de plus en plus populaire. Ces modèles mathématiques sont pour certains (comme les régressions linéaires ou bien les arbres de décisions) facilement interprétables. Cependant, les modèles ML à la pointe de la technologie, permettant de répondre à des problèmes complexes, comme les réseaux de neurones profonds, sont de facto des boîtes noires, au fonctionnement interne inaccessible. Cela soulève une question primordiale : puis-je avoir confiance dans les résultats donnés par mon modèle ? En prenant l'exemple concret d'un algorithme de classification d'images utilisant un réseau de neurones, nous introduirons LIME une technique novatrice permettant de visualiser les caractéristiques de l'image qui ont permis au modèle de prendre sa décision. Par : Samia Drappeau et Florent Pajot Slides : https://github.com/SamAstro/devfest_t... Talk filmé au DevFest Toulouse 2017 https://devfesttoulouse.fr

September 28, 2017