Fortschritte bei der Fehlererkennung im 3D-Druck
Einsatz von Computer Vision zur Verbesserung der Fehlerklassifizierung in der additiven Fertigung.
― 5 min Lesedauer
Inhaltsverzeichnis
Additive Fertigung, auch bekannt als 3D-Druck, ermöglicht es uns, Objekte Schicht für Schicht zu erstellen. Dieser Prozess ist in verschiedenen Branchen beliebt geworden, aber wie bei jeder Fertigungsmethode kann es zu Mängeln kommen. Um dieses Problem anzugehen, nutzen Forscher Computer Vision-Technologie, um diese Mängel durch Bilder, die während des Fertigungsprozesses aufgenommen werden, zu identifizieren und zu klassifizieren.
Die Rolle der Computer Vision
Computer Vision bezieht sich auf die Verwendung von Kameras und Sensoren, die Bilder aus dem Fertigungsprozess einfangen. Dadurch entstehen grosse Datenmengen, die bei richtiger Analyse sehr nützlich sein können. Durch das Training von Machine-Learning-Modellen mit diesen Bildern können wir Systeme entwickeln, die lernen, Mängel effektiv zu identifizieren. Dieses Papier konzentriert sich auf zwei Hauptideen: die Verwendung von Deep-Learning-Modellen, die als Convolutional Neural Networks (CNNs) bezeichnet werden, um Mängel in Bildern der Additiven Fertigung zu klassifizieren, und die Anwendung von Active-Learning-Techniken zur Verbesserung der Modellleistung.
Das Datenproblem verstehen
In vielen Bereichen haben Forscher Zugang zu grossen Datensätzen mit gekennzeichneten Bildern, die helfen, Machine-Learning-Modelle zu trainieren. Zum Beispiel gibt es öffentlich verfügbare Datensätze für zahlreiche Anwendungen mit Millionen von Beispielen. Allerdings sind in der Additiven Fertigung ähnliche Datensätze rar, da es schwierig und kostspielig ist, gekennzeichnete Proben zu sammeln. Oft müssen Forscher nur mit einer kleinen Anzahl gekennzeichneter Bilder arbeiten und nutzen viele ungesteuerte. Dieses Problem wurde als "Small Data Challenge in the Big Data Era" bezeichnet.
Überwindung des Datenproblems
Um dieses Problem anzugehen, haben Forscher Transfer-Learning untersucht, bei dem ein auf einer Aufgabe trainiertes Modell für eine andere, verwandte Aufgabe angepasst wird. Diese Methode kann helfen, erhebliche Fortschritte beim Training eines Modells mit weniger Datensamples als normalerweise erforderlich zu machen. Zum Beispiel kann ein auf einem grossen, allgemeinen Datensatz trainiertes Modell mit einem kleineren Datensatz aus der Additiven Fertigung feinjustiert werden, was es einfacher macht, eine genaue Mängelklassifikation zu erreichen.
Verwendung von Active Learning
Active Learning ist eine weitere Technik, die den Kennzeichnungsprozess verbessert. Anstatt Bilder zufällig für die Kennzeichnung auszuwählen, konzentriert sich Active Learning darauf, die informativsten Proben auszuwählen. Das bedeutet, dass das Modell effizienter lernen kann, indem es sich auf die Daten konzentriert, die das grösste Potenzial zur Verbesserung seiner Leistung haben. Die Kombination aus Transfer-Learning und Active Learning kann dazu beitragen, ein Modell zu erstellen, das auch mit begrenzten gekennzeichneten Daten effektiv ist.
Aufbau der Experimente
Um diese Methoden zu testen, wurde eine Studie mit einem offenen Bilddatensatz durchgeführt, der 4.000 Bilder enthielt, die in zwei Mängelklassifikationen unterteilt waren. Der Datensatz wurde in drei Teile für Trainings-, Test- und Validierungszwecke aufgeteilt. Ein spezifisches neuronales Netzwerkmodell, das als VGG16 bekannt ist, wurde zur Klassifikation von Mängeln verwendet, wobei die Merkmale aus Bildern eines vorherigen, verwandten Datensatzes genutzt wurden.
Anpassung des Modells
Das Modell musste feinjustiert werden, was die Anpassung mehrerer Parameter wie Lernrate, Batch-Grösse und Anzahl der Trainingsepochen beinhaltete. Verschiedene Optimierer wurden getestet, um herauszufinden, welcher die besten Ergebnisse lieferte. Ziel war es sicherzustellen, dass das Modell Mängel genau klassifizieren konnte, ohne überzupassen, was passiert, wenn ein Modell zu sehr auf die Trainingsdaten zugeschnitten wird und bei neuen, ungesehenen Daten schlecht abschneidet.
Erste Ergebnisse
Nach dem Testen verschiedener Kombinationen von Hyperparametern zeigte sich, dass alle getesteten Optimierer eine Genauigkeit von etwa 98 % in der Validierungsphase erzielten. Eine kleinere Batch-Grösse während des Trainings erwies sich als vorteilhaft, da sie häufigere Aktualisierungen des Modells erforderte, was dazu beitrug, dass es schneller lernte.
Active Learning Experimentierung
Der nächste Teil der Studie beinhaltete die Anwendung von Active Learning, um die Klassifikationsleistung zu verbessern. Der Prozess umfasste mehrere Schritte: Auswahl von Proben, Abfrage nach Labels, Training mit den gekennzeichneten Proben und Validierung des Modells. Dieser Zyklus wurde fortgesetzt, bis das Modell ein zufriedenstellendes Genauigkeitsniveau erreichte.
Während dieser Experimente wurde das Modell mit einer festen Anzahl von Trainingsproben initialisiert, und Abfragen wurden gesendet, um die informativsten Proben basierend auf Unsicherheit auszuwählen. Die ausgewählten Proben wurden dann von einem Experten gekennzeichnet und zur Verbesserung des Trainings des Modells verwendet.
Die Auswirkungen von Active Learning
Die Ergebnisse zeigten, dass die Einbeziehung von Active Learning zu einer verbesserten Leistung führte. Das Modell erreichte nach nur 13 Abfragerunden ein hohes Genauigkeitsniveau mit einer durchschnittlichen Genauigkeit von 98 %. Ausserdem benötigte das Modell nur einen kleinen Teil der insgesamt gekennzeichneten Proben, um eine optimale Leistung zu erreichen, was die Effizienz des Active-Learning-Prozesses zeigt.
Test des finalen Modells
Nachdem das Modell trainiert wurde, wurde es an einem separaten Datensatz mit 1.000 Proben getestet. Die vorhergesagten Ergebnisse wurden analysiert, wobei der Fokus auf Metriken wie Präzision, Recall und F1-Score lag, um Einblicke zu gewinnen, wie gut das Modell die Mängel klassifizierte.
Fazit
Diese Studie hob die Wirksamkeit der Verwendung von Computer Vision und Machine Learning-Techniken bei der Mängelklassifikation in der Additiven Fertigung hervor. Die Kombination von Transfer-Learning und Active-Learning-Strategien führte zu einer beeindruckenden Validierungsgenauigkeit von etwa 98 %. In zukünftigen Arbeiten planen die Forscher, verschiedene Sampling-Strategien für Active Learning zu untersuchen, insbesondere im Hinblick auf Klassenungleichgewichte. Sie wollen auch Methoden aus dem semi-supervised Learning erkunden, um den Kennzeichnungs- und Trainingsprozess weiter zu verbessern.
Durch die Verbesserung der Mängelklassifikation können Hersteller die Qualität ihrer Produkte steigern, Abfall reduzieren und letztendlich die Effizienz im Prozess der Additiven Fertigung erhöhen. Mit weiteren Fortschritten in Technologie und Datenanalyse können wir bedeutende Verbesserungen erwarten, wie wir Mängel in der 3D-Druckindustrie verwalten.
Titel: Defect Classification in Additive Manufacturing Using CNN-Based Vision Processing
Zusammenfassung: The development of computer vision and in-situ monitoring using visual sensors allows the collection of large datasets from the additive manufacturing (AM) process. Such datasets could be used with machine learning techniques to improve the quality of AM. This paper examines two scenarios: first, using convolutional neural networks (CNNs) to accurately classify defects in an image dataset from AM and second, applying active learning techniques to the developed classification model. This allows the construction of a human-in-the-loop mechanism to reduce the size of the data required to train and generate training data.
Autoren: Xiao Liu, Alessandra Mileo, Alan F. Smeaton
Letzte Aktualisierung: 2023-07-14 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2307.07378
Quell-PDF: https://arxiv.org/pdf/2307.07378
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.