Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Computer Vision und Mustererkennung

Fortschritte bei der Anomalieerkennung für die visuelle Inspektion

Neue Techniken verbessern die Anomalieerkennung bei visuellen Inspektionen mit Hilfe von maschinellem Lernen.

― 5 min Lesedauer


Neue Methoden zurNeue Methoden zurvisuellen InspektionAnomalien.Automatisierung bei der Erkennung vonMaschinelles Lernen verbessert die
Inhaltsverzeichnis

Visuelle Inspektion ist ein wichtiger Prozess in vielen Branchen, wie der Fertigung, im Gesundheitswesen und bei der Energieversorgung. Dieser Prozess hilft dabei, Mängel oder Abweichungen in Produkten oder Systemen zu identifizieren. Allerdings kann die Inspektion von Bildern auf Mängel zeitaufwendig und teuer sein. Neueste Fortschritte im maschinellen Lernen haben es möglich gemacht, diesen Prozess zu automatisieren, wodurch er schneller und effizienter wird.

Eine der grössten Herausforderungen bei der Automatisierung der visuellen Inspektion ist der Mangel an gekennzeichneten Daten. Mängel können selten sein, was es schwierig macht, genügend Beispiele für das Training von Modellen im maschinellen Lernen zu sammeln. Um dieses Problem zu lösen, haben sich unüberwachte Anomalieerkennungsmethoden verbreitet. Diese Methoden können aus überwiegend fehlerfreien Proben lernen und so Anomalien erkennen, ohne dass umfangreiche gekennzeichnete Daten notwendig sind.

Der Bedarf an Anomalieerkennung

Anomalieerkennung bedeutet, Muster in Daten zu identifizieren, die nicht dem erwarteten Verhalten entsprechen. Im Kontext der visuellen Inspektion können Anomalien Mängel in Produkten oder ungewöhnliche Merkmale in Bildern sein. Traditionelles überwacht Lernen benötigt eine grosse Anzahl an gekennzeichneten Beispielen, was schwer zu bekommen sein kann, besonders wenn Mängel selten sind.

Unüberwachte Methoden haben sich als Lösung für dieses Problem herausgestellt. Diese Methoden können normale Bilder analysieren, um zu lernen, wie "normal" aussieht. Dadurch können die Modelle Abweichungen in neuen, ungesehenen Bildern erkennen. Obwohl unüberwachte Methoden effektiv sein können, stehen sie immer noch vor Herausforderungen, insbesondere in unkontrollierten Umgebungen, wo die Bedingungen stark variieren können.

Aufmerksamkeitsmechanismen im Deep Learning

In den letzten Jahren hat eine Technik namens Aufmerksamkeitsmechanismen im Bereich des Deep Learning Aufmerksamkeit erregt. Diese Mechanismen ermöglichen es Modellen, sich auf wichtige Teile der Eingabedaten zu konzentrieren, während weniger relevante Informationen ignoriert werden. Indem spezifische Merkmale in einem Bild betont werden, können Aufmerksamkeitsmechanismen die Leistung von Modellen bei Aufgaben wie der Anomalieerkennung verbessern.

Aufmerksamkeitsmechanismen wurden in verschiedene Architektur von neuronalen Netzwerken integriert, insbesondere in Faltungsneuronalen Netzwerken (CNNs). Diese Integration ermöglicht es den Modellen, besser abzuschneiden, indem sie wichtige Merkmale priorisieren und ihre Lernfähigkeiten verbessern.

DifferNet: Ein moderner Ansatz

DifferNet ist eine hochmoderne Methode zur Anomalieerkennung in Bildern. Sie kombiniert Faltungsneuronale Netzwerke mit einer Technik namens normalizing flows. Das CNN ist dafür verantwortlich, Merkmale aus Bildern zu extrahieren, während normalizing flows helfen, komplexe Verteilungen zu modellieren.

Um DifferNet zu verwenden, werden Trainingsbilder genommen, um beschreibende Merkmale von normalen Instanzen zu erstellen. Diese Merkmale werden dann in einen latenten Raum abgebildet, wo das Modell die Wahrscheinlichkeit neuer Proben berechnen kann. Fehlende Bilder sollten niedrigere Wahrscheinlichkeiten aufweisen als normale. Dieses System identifiziert effektiv Abweichungen von der erwarteten Norm.

Verbesserung von DifferNet mit Aufmerksamkeit

Um die Leistung von DifferNet zu verbessern, können Aufmerksamkeitsmechanismen in seine Architektur integriert werden. Durch die Integration von Modulen wie Squeeze-and-Excitation Netzwerken (SENet) und Convolutional Block Attention Modulen (CBAM) kann das Modell besser auf entscheidende Merkmale innerhalb von Bildern fokussieren.

SENet arbeitet hauptsächlich an Kanalbeziehungen und ermöglicht dem Modell, wichtige Informationskanäle zu verstärken. CBAM hingegen untersucht sowohl räumliche als auch kanalweise Merkmale und macht es anpassungsfähig für verschiedene Datentypen. Durch die Verwendung dieser Aufmerksamkeitsblöcke kann die verbesserte Version von DifferNet, genannt AttentDifferNet, bessere Ergebnisse bei der Anomalieerkennung erzielen.

Datensätze für Tests

Um die Effektivität der Verbesserungen an DifferNet zu evaluieren, wurden drei Datensätze getestet:

  1. MVTec AD: Dies ist ein weit verbreiteter Datensatz, der Bilder von Objekten und Texturen in kontrollierten Umgebungen enthält. Er stellt Herausforderungen im Zusammenhang mit visuellen Mängeln dar und ist eine wertvolle Ressource zur Testung von Anomalieerkennungsmethoden.

  2. InsPLAD-fault: Dieser Datensatz umfasst reale Bilder von Komponenten von Stromleitungen, die in unkontrollierten Aussenumgebungen aufgenommen wurden. Er soll die Herausforderungen bei der Identifizierung von Anomalien in der Natur angehen.

  3. Semiconductor Wafer: Dieser Datensatz konzentriert sich auf visuelle Inspektionen im Zusammenhang mit der Halbleiterfertigung. Er enthält Bilder sowohl mit normalen als auch mit defekten Proben.

Ergebnisse der Studie

Die Ergebnisse der Studie zeigten, dass AttentDifferNet das ursprüngliche DifferNet in allen getesteten Datensätzen übertroffen hat. Insbesondere im InsPLAD-fault-Datensatz erzielte AttentDifferNet bemerkenswerte Verbesserungen bei der Erkennung von Anomalien in Bildern von Stromleitungen. Ausserdem zeigte es in verschiedenen Kategorien eine überlegene Leistung im Vergleich zu modernen Methoden.

Im MVTec AD-Datensatz, während einige bestehende Methoden gut abschnitten, übertraf AttentDifferNet konstant das standardmässige DifferNet. Im Semiconductor Wafer-Datensatz zeigten beide Versionen von AttentDifferNet Verbesserungen gegenüber dem Standardansatz.

Qualitative Analyse

Zusätzlich zu den quantitativen Ergebnissen wurden qualitative Bewertungen durchgeführt, um zu visualisieren, wie gut die Modelle Anomalien identifizierten. Mit einem Tool namens Grad-CAM wurde deutlich, dass AttentDifferNet stärker auf die relevanten Objekte in Bildern fokussiert war und effektiv zwischen normalen und defekten Proben unterschied. Zum Beispiel, als man sich Bilder von Stromleitungskomponenten ansah, hob AttentDifferNet Mängel hervor und ignorierte dabei unwichtige Hintergrundelemente.

Fazit

Die Integration von Aufmerksamkeitsmechanismen in Modelle zur Anomalieerkennung, wie das verbesserte DifferNet, stellt einen bedeutenden Fortschritt im Bereich der automatischen visuellen Inspektion dar. Indem die Modelle sich auf wichtige Bereiche in Bildern konzentrieren können, können diese Mechanismen die Gesamtleistung von Erkennungssystemen verbessern.

Die Ergebnisse zeigen, dass Standardansätze Einschränkungen haben, insbesondere in unkontrollierten Umgebungen. Allerdings bietet die Einbeziehung von Aufmerksamkeitsblöcken in Modelle des Deep Learning eine vielversprechende Lösung für diese Herausforderungen.

Da die Industrien weiterhin Automatisierung in der visuellen Inspektion übernehmen, wird die Forschung in diesem Bereich entscheidend sein, um zuverlässige und effiziente Systeme zu erhalten. Zukünftige Arbeiten können auf diesen Erkenntnissen aufbauen, indem sie zusätzliche Datensätze erkunden und Aufmerksamkeitsmechanismen weiter verfeinern, um die Anomalieerkennungsfähigkeiten weiter zu verbessern.

Originalquelle

Titel: Attention Modules Improve Modern Image-Level Anomaly Detection: A DifferNet Case Study

Zusammenfassung: Within (semi-)automated visual inspection, learning-based approaches for assessing visual defects, including deep neural networks, enable the processing of otherwise small defect patterns in pixel size on high-resolution imagery. The emergence of these often rarely occurring defect patterns explains the general need for labeled data corpora. To not only alleviate this issue but to furthermore advance the current state of the art in unsupervised visual inspection, this contribution proposes a DifferNet-based solution enhanced with attention modules utilizing SENet and CBAM as backbone - AttentDifferNet - to improve the detection and classification capabilities on three different visual inspection and anomaly detection datasets: MVTec AD, InsPLAD-fault, and Semiconductor Wafer. In comparison to the current state of the art, it is shown that AttentDifferNet achieves improved results, which are, in turn, highlighted throughout our quantitative as well as qualitative evaluation, indicated by a general improvement in AUC of 94.34 vs. 92.46, 96.67 vs. 94.69, and 90.20 vs. 88.74%. As our variants to AttentDifferNet show great prospects in the context of currently investigated approaches, a baseline is formulated, emphasizing the importance of attention for anomaly detection.

Autoren: André Luiz B. Vieira e Silva, Francisco Simões, Danny Kowerko, Tobias Schlosser, Felipe Battisti, Veronica Teichrieb

Letzte Aktualisierung: 2024-01-12 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2401.08686

Quell-PDF: https://arxiv.org/pdf/2401.08686

Lizenz: https://creativecommons.org/licenses/by-nc-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Ähnliche Artikel