Améliorer l'interprétabilité des modèles de deep learning avec DCLS
Cette étude examine l'impact de DCLS sur l'interprétabilité et la précision des modèles.
Rabih Chamas, Ismail Khalfaoui-Hassani, Timothee Masquelier
― 8 min lire
Table des matières
Les modèles de deep learning sont super utilisés pour des tâches comme la classification d'images. Ils peuvent être hyper précis, mais ils fonctionnent souvent comme des boîtes noires. Ça veut dire qu'il est compliqué de comprendre comment ils prennent leurs décisions. Les méthodes d'explicabilité visent à éclairer comment ces modèles arrivent à leurs résultats. Un domaine où ces méthodes marchent bien, c'est la classification d'images, où des modèles populaires utilisent des couches appelées convolutions et mécanismes d'attention.
Quand un modèle est seulement composé de couches de convolution, c'est un réseau de neurones convolutionnel entièrement convolutionnel, ou CNN. S'il a seulement des couches d'attention, on l'appelle un transformeur, et dans la vision par ordinateur, un transformeur de vision. Les modèles hybrides incluent les deux types de couches. Malgré leur grande précision, beaucoup de ces modèles manquent de transparence. Ça soulève des inquiétudes concernant la confiance, l'équité et la fiabilité, surtout dans des applications sensibles comme le diagnostic médical ou les voitures autonomes.
Une avancée récente dans ce domaine, c'est une méthode appelée Convolution Dilatée avec Espacements Apprenables (DCLS). Cette méthode semble prometteuse pour améliorer les performances en classification d'images, segmentation et détection d'objets. Bien que la précision de DCLS soit encourageante, sa nature de boîte noire doit encore être abordée. Donc, on a envie d'explorer des mesures d'explicabilité spécifiques à DCLS pour clarifier son processus de décision.
Explicabilité en IA
Dans la recherche en IA, l'explicabilité est un sujet crucial. Il y a plein de façons d'y arriver. En gros, les chercheurs divisent les méthodes d'explicabilité en deux grandes catégories : les méthodes globales et locales. Les méthodes globales examinent le comportement général d'un modèle et mettent en avant des motifs et l'importance des caractéristiques. Des exemples de ces méthodes sont les Graphiques de Dépendance Partielle et les Explications Additives de SHapley. Les méthodes locales se concentrent sur la compréhension des prédictions individuelles, expliquant pourquoi le modèle a pris une décision pour une entrée spécifique. Des exemples incluent les Explications Locales Interprétables Indépendantes du Modèle et le Gradient-weighted Class Activation Mapping (Grad-CAM).
Grad-CAM est une technique populaire qui montre quelles parties d'une image comptent le plus pour la décision du modèle. Dans notre étude, on a créé une version mise à jour de Grad-CAM appelée Threshold-Grad-CAM. Cette nouvelle méthode vise à corriger certains problèmes observés avec le Grad-CAM traditionnel, surtout avec les modèles ConvFormer et CAFormer.
Objectifs de recherche
Ce papier a deux grands objectifs. D'abord, on veut comparer les scores d'explicabilité de divers modèles à la pointe de la technologie en vision par ordinateur, comme ConvNeXt, ConvFormer, CAFormer et FastViT. Ensuite, on veut faire la même comparaison entre ces modèles et leurs versions améliorées par DCLS.
On a remarqué une similarité visuelle entre les cartes de chaleur d'attention humaine, obtenues d'un jeu en ligne appelé ClickMe, et celles produites par des modèles utilisant DCLS. Pour montrer ça, on a sélectionné des images du dataset ClickMe qui étaient visuellement significatives. Ensuite, on a confirmé l'alignement des modèles DCLS avec les cartes de chaleur d'attention humaine à travers une analyse rigoureuse.
Présentation du Dataset
Le dataset ClickMe capture les stratégies d'attention humaine pour des tâches de classification d'images. Il a été collecté via un jeu en ligne pour un joueur où les joueurs soulignaient les parties les plus informatives d'une image pour reconnaître des objets. En comparant les cartes de chaleur générées par le modèle avec celles du dataset ClickMe, on mesure à quel point la stratégie d'attention d'un modèle correspond aux stratégies humaines.
Méthode DCLS Expliquée
Bien que des noyaux de convolution plus grands puissent améliorer les performances, ils augmentent aussi le nombre de paramètres et la charge de calcul. Pour y remédier, une méthode appelée convolution dilatée a été introduite, qui agrandit les noyaux sans ajouter de paramètres supplémentaires. Cependant, la convolution dilatée traditionnelle utilise une grille fixe, ce qui peut restreindre les performances.
La méthode DCLS s'appuie sur ce concept. Au lieu d'avoir des espacements fixes entre les éléments non nuls dans le noyau, DCLS permet à ces espacements d'être appris durant l'entraînement. Une méthode d'interpolation est utilisée pour maintenir les propriétés nécessaires pour l'apprentissage tout en gérant la nature discrète des espacements.
Techniques Grad-CAM et Threshold-Grad-CAM
Grad-CAM fournit des explications visuelles pour les décisions prises par les modèles de deep learning. Elle utilise les gradients d'un concept cible pour créer une carte de localisation, mettant en évidence les parties de l'image d'entrée critiques pour la prédiction. Dans notre étude, on a trouvé que l'application de la fonction d'activation ReLU pouvait parfois supprimer des informations utiles. Ce problème a été principalement observé dans les modèles ConvFormer et CAFormer, où les cartes de chaleur de sortie n'étaient pas informatives.
Pour résoudre ce problème, on suggère d'appliquer ReLU avant de sommer les cartes d'activation. Les cartes de chaleur sont ensuite normalisées, et on ne garde que les valeurs au-dessus d'un certain seuil déterminé comme optimal par expérimentation. Ce processus Grad-CAM mis à jour a montré des améliorations significatives en interprétabilité pour les modèles ConvFormer et CAFormer.
Travaux Liés sur l'Interprétabilité
Le domaine de l'IA interprétable a récemment suscité beaucoup d'intérêt. Les chercheurs ont travaillé à définir des concepts clés comme l'interprétabilité et l'explicabilité. Ils ont aussi développé des méthodes pour évaluer à quel point les modèles peuvent être expliqués. Certaines études ont souligné les compromis qui viennent avec une précision plus élevée, suggérant que les modèles peuvent devenir moins alignés avec les stratégies humaines. En revanche, notre analyse utilisant Grad-CAM n'a pas montré ce type de compromis, ce qui pourrait être dû aux différentes méthodes utilisées pour l'explication.
Configuration Expérimentale
Pour comparer les performances des modèles et leur interprétabilité, on a utilisé le dataset de validation ImageNet1k. Pour évaluer l'interprétabilité, on a utilisé la corrélation de Spearman pour évaluer l'adéquation entre les cartes de chaleur générées par les humains du dataset ClickMe et celles générées par le modèle. Nos expériences impliquaient cinq modèles : ResNet, ConvNeXt, CAFormer, ConvFormer et FastViT. On a entraîné chaque modèle et remplacé les convolutions séparables en profondeur par DCLS pour voir comment ça affectait l'interprétabilité.
Résultats
Les résultats indiquent une amélioration de l'interprétabilité dans tous les modèles, sauf pour le FastViT sa24. ConvNeXt, avec DCLS, a montré un meilleur alignement avec les cartes de chaleur générées par les méthodes Grad-CAM et Threshold-Grad-CAM. On a aussi trouvé que DCLS augmentait la précision dans la plupart des modèles, sauf pour CAFormer s18 et FastViT sa36.
Pour FastViT, la méthode utilisée pour les tests pourrait avoir interféré avec la performance de DCLS. Ça pourrait expliquer pourquoi son interprétabilité et sa précision n'étaient pas aussi corrélées que pour d'autres modèles. Nos résultats sont notables car on a testé plusieurs graines d'entraînement pour le modèle ConvNeXt-T-dcls, confirmant son amélioration en précision et score d'interprétabilité.
Discussion
En fin de compte, on a trouvé qu'utiliser DCLS améliorait l'interprétabilité du réseau. Les modèles équipés de DCLS s'alignaient mieux avec la perception visuelle humaine, suggérant que ces modèles captent des caractéristiques pertinentes similaires à la compréhension humaine. Les travaux futurs pourraient explorer davantage l'explicabilité de DCLS à travers diverses méthodes de boîte noire.
Conclusion
Dans cette étude, on a examiné l'interprétabilité de modèles populaires de deep learning en utilisant des techniques Grad-CAM mises à jour. On a découvert que l'intégration de DCLS améliore généralement l'interprétabilité des modèles et aligne les cartes de chaleur générées par les modèles avec les stratégies d'attention humaine. Ça suggère que les modèles utilisant DCLS sont plus efficaces pour identifier des caractéristiques critiques liées à leurs prédictions. Notre recherche contribue à améliorer la transparence des modèles de deep learning, les rendant plus adaptés à des applications où comprendre les décisions du modèle est crucial.
Titre: Dilated Convolution with Learnable Spacings makes visual models more aligned with humans: a Grad-CAM study
Résumé: Dilated Convolution with Learnable Spacing (DCLS) is a recent advanced convolution method that allows enlarging the receptive fields (RF) without increasing the number of parameters, like the dilated convolution, yet without imposing a regular grid. DCLS has been shown to outperform the standard and dilated convolutions on several computer vision benchmarks. Here, we show that, in addition, DCLS increases the models' interpretability, defined as the alignment with human visual strategies. To quantify it, we use the Spearman correlation between the models' GradCAM heatmaps and the ClickMe dataset heatmaps, which reflect human visual attention. We took eight reference models - ResNet50, ConvNeXt (T, S and B), CAFormer, ConvFormer, and FastViT (sa 24 and 36) - and drop-in replaced the standard convolution layers with DCLS ones. This improved the interpretability score in seven of them. Moreover, we observed that Grad-CAM generated random heatmaps for two models in our study: CAFormer and ConvFormer models, leading to low interpretability scores. We addressed this issue by introducing Threshold-Grad-CAM, a modification built on top of Grad-CAM that enhanced interpretability across nearly all models. The code and checkpoints to reproduce this study are available at: https://github.com/rabihchamas/DCLS-GradCAM-Eval.
Auteurs: Rabih Chamas, Ismail Khalfaoui-Hassani, Timothee Masquelier
Dernière mise à jour: 2024-08-06 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2408.03164
Source PDF: https://arxiv.org/pdf/2408.03164
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.