Effet de la complexité du réseau LSTM sur l’explicabilité en Maintenance Prédictive
Conférence : Communications avec actes dans un congrès national
La nature complexe des données en maintenance prédictive impose souvent l’utilisation de modèles d’apprentissage profonds. Malgré leur efficacité dans la prédiction du
RUL (durée de vie résiduelle des machines), ces « boites noires » fournissent des résultats qui ne sont pas directement compréhensibles. Ainsi, des méthodes XAI post hoc sont gé néralement utilisées pour les expliquer. La modélisation inclut habituellement le choix de la complexité du modèle telle que la profondeur du réseau. Par ailleurs, on pourrait se demander si une complexité élevée du modèle ne freine pas la capacité des méthodes XAI dans l’expli cation des prédictions. Cette étude examine l’effet de la profondeur du réseau LSTM sur la qualité des explications des méthodes XAI, post hoc, locales, LIME, SHAP et L2X, utilisant huit métriques d’évaluation. Les résultats obtenus montrent que la qualité des explications peut suivre une certaine tendance en fonction de la complexité du réseau et selon la propriété de l’explication évaluée. Ces résultats ont montré également le manque de concordance entre les métriques d’évaluation, impliquant ainsi un besoin de cadre consensuel plus fiable dans l’évaluation des méthodes XAI.