Évaluer les méthodes XAI en télédétection
Cette étude évalue différentes techniques d'IA explicable pour interpréter la classification d'images de télédétection.
― 6 min lire
Table des matières
La télédétection, c'est capturer des images de la surface de la Terre à distance. Cette technologie est super utile dans plein de domaines comme l'agriculture, la défense et le suivi de l'environnement. Récemment, l'intelligence artificielle (IA) et l'apprentissage automatique (ML) ont amélioré l'analyse des images de télédétection. Par contre, beaucoup de modèles d'IA, surtout ceux de deep learning, peuvent être difficiles à comprendre. Ce manque de clarté peut créer de la méfiance et des biais potentiels dans leurs résultats.
Pour expliquer comment ces modèles d'IA prennent des décisions, les chercheurs ont développé des méthodes connues sous le nom d'IA explicable (XAI). Ces méthodes visent à éclairer le processus de décision des modèles d'IA. Avec les différentes techniques XAI disponibles, choisir la bonne peut être compliqué.
Objectif de l'étude
Cette étude a pour but d'évaluer différentes méthodes XAI utilisées pour la classification d'images de télédétection. Nous voulons comparer les performances de plusieurs modèles de pointe, y compris les réseaux de neurones convolutionnels (CNN), les transformers visuels et les réseaux de modulation focale. Notre but est de comprendre comment les différentes méthodes XAI peuvent nous aider à interpréter les décisions prises par ces modèles.
Approches XAI
Dans cette recherche, on a examiné cinq techniques XAI principales :
- High-Resolution Class Activation Mapping (HiResCAM) : Cette méthode utilise des cartes d'attention pour montrer quelles parties d'une image sont les plus importantes pour les prédictions du modèle.
 - Local Interpretable Model-agnostic Explanations (LIME) : LIME explique les prédictions en approchant le modèle localement autour d'une prédiction particulière.
 - Gradient SHapley Additive exPlanations (GradSHAP) : GradSHAP combine les gradients avec les valeurs de Shapley pour donner des aperçus sur la contribution de chaque caractéristique à la prédiction.
 - Saliency Maps : Ces cartes mettent en évidence les pixels les plus critiques dans une image qui contribuent à la décision du modèle.
 - Occlusion : Cette méthode modifie systématiquement des parties de l'image d'entrée pour voir comment cela affecte la sortie.
 
En appliquant ces méthodes à nos modèles sélectionnés, on peut comprendre leurs forces et faiblesses en termes de performance et d'explicabilité.
Métriques d'évaluation
Pour évaluer les méthodes XAI, on doit regarder plusieurs propriétés clés :
- Robustesse : Ça mesure à quel point les explications sont cohérentes quand l'entrée change.
 - Fidélité : Ça évalue si l'explication reflète vraiment le raisonnement du modèle.
 - Localisation : Ça vérifie si la méthode peut pointer des zones pertinentes dans une image.
 - Complexité : Ça indique à quel point l'explication est complexe, avec moins compliqué étant mieux.
 - Randomisation : Ça examine comment les changements dans l'entrée affectent les prédictions du modèle.
 - Axiomatic : Ça évalue si la méthode satisfait certains principes théoriques.
 
Mise en place de l'expérience
On a conduit nos expériences avec trois types différents de jeux de données pour la classification d'images de télédétection. Ces jeux de données incluent divers types d'images, comme des images RGB (images couleur), des images multispectrales, et des images radar à synthèse d'ouverture (SAR). Pour chaque jeu de données, on a utilisé des techniques d'augmentation des données pour augmenter la quantité de données d'entraînement.
On a entraîné nos modèles en utilisant une méthode d'optimisation standard et en suivant des paramètres spécifiques pour chaque modèle. Après l'entraînement, on a utilisé un sous-ensemble des données de test pour évaluer les méthodes XAI, en s'assurant que chaque classe d'images était représentée.
Résultats
Performance de classification
On a mesuré la précision de classification obtenue par chaque modèle à travers les différents jeux de données. Le modèle ConvNeXt a bien performé sur les jeux de données RGB et multispectraux, tandis qu'il a eu du mal avec le jeu de données MSTAR. C'était attendu, car MSTAR a des types de cibles limités, ce qui rend plus difficile la généralisation des modèles.
Analyse XAI
On a aussi regardé comment chaque méthode XAI a bien expliqué les décisions du modèle. Chaque méthode a été notée sur les propriétés clés qu'on a définies plus tôt. Par exemple, la méthode Occlusion a eu la meilleure performance pour le jeu de données UCMerced. Elle a efficacement représenté le comportement du modèle et la stabilité de la sortie face aux changements d'entrée.
GradientSHAP a bien performé pour le jeu de données EuroSAT, capturant avec précision les connexions entre les pixels d'image et leurs étiquettes correspondantes. Pour le jeu de données MSTAR, HiResCAM a bien fonctionné pour mettre en avant les zones importantes dans les images.
Conclusion
Cette étude a donné des aperçus sur différentes méthodes XAI pour la classification d'images de télédétection. On a identifié quelles méthodes ont le mieux performé dans divers contextes, notant que certains facteurs peuvent influencer le choix d'une méthode selon l'application et les utilisateurs finaux.
Les travaux futurs pourraient inclure l'application de notre approche à d'autres jeux de données et tâches, comme la segmentation d'images. Il y a aussi de la place pour développer de nouvelles méthodes et métriques XAI qui peuvent améliorer l'interprétabilité des modèles d'IA. Comprendre l'impact des hyperparamètres sur la performance des méthodes XAI est une autre zone importante pour plus de recherches, car ça peut mener à des résultats plus cohérents et fiables.
En fournissant une évaluation systématique des méthodes XAI, cette étude vise à aider les chercheurs et les praticiens à faire des choix éclairés sur quelles méthodes utiliser dans différents scénarios. La capacité de comprendre les décisions prises par les modèles d'IA en télédétection peut conduire à une meilleure confiance et une meilleure utilité dans des applications réelles, ce qui en fin de compte profite à la société dans son ensemble.
Titre: Quantitative Analysis of Primary Attribution Explainable Artificial Intelligence Methods for Remote Sensing Image Classification
Résumé: We present a comprehensive analysis of quantitatively evaluating explainable artificial intelligence (XAI) techniques for remote sensing image classification. Our approach leverages state-of-the-art machine learning approaches to perform remote sensing image classification across multiple modalities. We investigate the results of the models qualitatively through XAI methods. Additionally, we compare the XAI methods quantitatively through various categories of desired properties. Through our analysis, we offer insights and recommendations for selecting the most appropriate XAI method(s) to gain a deeper understanding of the models' decision-making processes. The code for this work is publicly available.
Auteurs: Akshatha Mohan, Joshua Peeples
Dernière mise à jour: 2023-12-04 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2306.04037
Source PDF: https://arxiv.org/pdf/2306.04037
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.