Simple Science

La science de pointe expliquée simplement

# Informatique# Vision par ordinateur et reconnaissance des formes

Avancées dans la détection d'anomalies pour l'inspection visuelle

De nouvelles techniques améliorent la détection des anomalies dans les inspections visuelles en utilisant l'apprentissage automatique.

― 7 min lire


Nouvelles méthodes pourNouvelles méthodes pourl'inspection visuelleanomalies.l'automatisation dans la détection desL'apprentissage automatique améliore
Table des matières

L'inspection visuelle est un processus clé dans plein d'industries, comme la fabrication, la santé et la distribution d'énergie. Ce processus aide à identifier les défauts ou anomalies dans les produits ou systèmes. Mais inspecter des images à la recherche de défauts peut prendre beaucoup de temps et coûter cher. Les avancées récentes en apprentissage automatique ont permis d'automatiser ce processus, le rendant plus rapide et plus efficace.

Un des principaux défis de l'automatisation de l'inspection visuelle, c'est le manque de données étiquetées. Les défauts peuvent être rares, ce qui rend difficile la collecte d'assez d'exemples pour entraîner des modèles d'apprentissage automatique. Pour pallier ce problème, les méthodes de Détection d'anomalies non supervisées sont devenues plus populaires. Ces méthodes peuvent apprendre à partir d'échantillons presque sans défauts, ce qui leur permet d'identifier des anomalies sans avoir besoin de beaucoup de données étiquetées.

Le Besoin de Détection d'Anomalies

La détection d'anomalies, c'est identifier des motifs dans les données qui ne respectent pas le comportement attendu. Dans le cadre de l'inspection visuelle, les anomalies peuvent être des défauts dans les produits ou des éléments inhabituels dans les images. L'apprentissage supervisé traditionnel nécessite un grand nombre d'exemples étiquetés, ce qui peut être difficile à obtenir, surtout quand les défauts sont rares.

Les méthodes non supervisées ont émergé comme une solution à ce problème. Ces méthodes peuvent analyser des images normales pour apprendre à quoi ressemble le "normal". En faisant ça, les modèles peuvent repérer des écarts dans de nouvelles images non vues. Bien que les méthodes non supervisées peuvent être efficaces, elles rencontrent encore des défis, particulièrement dans des environnements non contrôlés où les conditions peuvent varier énormément.

Mécanismes d'attention en Apprentissage Profond

Ces dernières années, une technique appelée mécanismes d'attention a pris de l'ampleur dans le domaine de l'apprentissage profond. Ces mécanismes permettent aux modèles de se concentrer sur des parties importantes des données d'entrée tout en ignorant les informations moins pertinentes. En mettant l'accent sur des caractéristiques spécifiques dans une image, les mécanismes d'attention peuvent améliorer la performance des modèles dans des tâches comme la détection d'anomalies.

Les mécanismes d'attention ont été intégrés dans diverses architectures de réseaux de neurones, en particulier les réseaux de neurones convolutifs (CNN). Cette intégration permet aux modèles de mieux performer en priorisant les caractéristiques importantes et en améliorant leurs capacités d'apprentissage.

DifferNet : Une Approche Moderne

DifferNet est une méthode à la pointe pour détecter des anomalies dans les images. Elle combine des réseaux de neurones convolutifs avec une technique connue sous le nom de flux normalisés. Le CNN est responsable de l'extraction des caractéristiques des images, tandis que les flux normalisés aident à modéliser des distributions complexes.

Pour utiliser DifferNet, des images de formation sont prises pour créer des caractéristiques descriptives des instances normales. Ces caractéristiques sont ensuite mappées dans un espace latent où le modèle peut calculer la probabilité de nouveaux échantillons. Les images défectueuses devraient avoir des probabilités plus basses que les normales. Ce système identifie efficacement les écarts par rapport à la norme attendue.

Améliorer DifferNet avec l'Attention

Pour améliorer la performance de DifferNet, on peut ajouter des mécanismes d'attention à son architecture. En intégrant des modules comme les réseaux Squeeze-and-Excitation (SENet) et les Modules d'Attention de Bloc Convolutionnel (CBAM), le modèle peut mieux se concentrer sur des caractéristiques cruciales à l'intérieur des images.

Le SENet fonctionne principalement sur les relations de canaux, permettant au modèle d'améliorer les canaux d'information importants. D'un autre côté, le CBAM examine à la fois les caractéristiques spatiales et canaux, ce qui le rend adaptable à différents types de données. En utilisant ces blocs d'attention, la version améliorée de DifferNet, appelée AttentDifferNet, peut obtenir de meilleurs résultats dans la détection d'anomalies.

Jeux de Données pour les Tests

Pour évaluer l'efficacité des améliorations apportées à DifferNet, trois jeux de données ont été testés :

  1. MVTec AD : C'est un jeu de données largement utilisé qui contient des images d'objets et de textures dans des environnements contrôlés. Il présente des défis liés aux défauts visuels, ce qui en fait une ressource précieuse pour tester les méthodes de détection d'anomalies.

  2. InsPLAD-fault : Ce jeu de données inclut des images réelles de composants de lignes électriques, capturées dans des environnements extérieurs non contrôlés. Il est conçu pour relever les défis liés à l'identification d'anomalies dans la nature.

  3. Semiconductor Wafer : Ce jeu de données se concentre sur les inspections visuelles liées à la fabrication de semi-conducteurs. Il contient des images avec des échantillons normaux et défectueux.

Résultats de l'Étude

Les résultats de l'étude ont montré qu'AttentDifferNet a surpassé l'original DifferNet sur tous les jeux de données testés. En particulier, sur le jeu de données InsPLAD-fault, AttentDifferNet a obtenu des améliorations notables dans la détection d'anomalies dans les images de lignes électriques. De plus, il a montré une performance supérieure dans diverses catégories par rapport aux méthodes à la pointe.

Dans le jeu de données MVTec AD, bien que certaines méthodes existantes aient bien performé, AttentDifferNet a constamment dépassé le DifferNet standard. Dans le jeu de données Semiconductor Wafer, les deux versions d'AttentDifferNet ont montré des améliorations par rapport à l'approche standard.

Analyse Qualitative

En plus des résultats quantitatifs, des évaluations qualitatives ont été effectuées pour visualiser à quel point les modèles identifiaient bien les anomalies. En utilisant un outil appelé Grad-CAM, il est devenu clair qu'AttentDifferNet était plus concentré sur les objets pertinents dans les images, distinguant efficacement entre les échantillons normaux et défectueux. Par exemple, en regardant les composants de lignes électriques, AttentDifferNet mettait en avant les défauts tout en réussissant à ignorer les éléments de fond non liés.

Conclusion

L'intégration des mécanismes d'attention dans les modèles de détection d'anomalies, comme le DifferNet amélioré, représente une avancée significative dans le domaine de l'inspection visuelle automatique. En permettant aux modèles de se concentrer sur des régions importantes des images, ces mécanismes peuvent améliorer la performance globale des systèmes de détection.

Les résultats indiquent que les approches standard ont des limites, surtout dans des environnements non contrôlés. Cependant, intégrer des blocs d'attention dans les modèles d'apprentissage profond offre une solution prometteuse à ces défis.

Alors que les industries continuent d'adopter l'automatisation dans l'inspection visuelle, la recherche dans ce domaine sera cruciale pour obtenir des systèmes fiables et efficaces. Les travaux futurs peuvent s'appuyer sur ces résultats en explorant d'autres jeux de données et en perfectionnant les mécanismes d'attention pour améliorer encore les capacités de détection d'anomalies.

Source originale

Titre: Attention Modules Improve Modern Image-Level Anomaly Detection: A DifferNet Case Study

Résumé: Within (semi-)automated visual inspection, learning-based approaches for assessing visual defects, including deep neural networks, enable the processing of otherwise small defect patterns in pixel size on high-resolution imagery. The emergence of these often rarely occurring defect patterns explains the general need for labeled data corpora. To not only alleviate this issue but to furthermore advance the current state of the art in unsupervised visual inspection, this contribution proposes a DifferNet-based solution enhanced with attention modules utilizing SENet and CBAM as backbone - AttentDifferNet - to improve the detection and classification capabilities on three different visual inspection and anomaly detection datasets: MVTec AD, InsPLAD-fault, and Semiconductor Wafer. In comparison to the current state of the art, it is shown that AttentDifferNet achieves improved results, which are, in turn, highlighted throughout our quantitative as well as qualitative evaluation, indicated by a general improvement in AUC of 94.34 vs. 92.46, 96.67 vs. 94.69, and 90.20 vs. 88.74%. As our variants to AttentDifferNet show great prospects in the context of currently investigated approaches, a baseline is formulated, emphasizing the importance of attention for anomaly detection.

Auteurs: André Luiz B. Vieira e Silva, Francisco Simões, Danny Kowerko, Tobias Schlosser, Felipe Battisti, Veronica Teichrieb

Dernière mise à jour: 2024-01-12 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2401.08686

Source PDF: https://arxiv.org/pdf/2401.08686

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires