Simple Science

La science de pointe expliquée simplement

# Informatique# Apprentissage automatique

Prédire les problèmes de qualité dans la fabrication de la laine

Une méthode pour prédire la qualité des tapis en laine afin d'améliorer les standards de fabrication.

― 8 min lire


Prédictions de qualitéPrédictions de qualitédans les textiles enlaineavancées.laine grâce à des techniques de donnéesAméliorer la production de tapis en
Table des matières

Dans le monde de la fabrication textile, produire des produits de haute qualité peut être compliqué. C'est surtout le cas avec des matières naturelles comme la laine de mouton. La qualité de la laine peut varier en raison de nombreux facteurs, comme la race des moutons, les saisons et les conditions de croissance. Pour s'assurer que le produit final respecte les normes de qualité, les entreprises doivent prévoir les problèmes potentiels qui pourraient survenir pendant le processus de fabrication. Cet article parle d'une méthode développée pour prédire les problèmes de qualité dans les tapis et moquettes en laine en analysant les données du processus de fabrication.

Prédiction de la qualité en fabrication

La prédiction de la qualité vise à identifier les problèmes potentiels tôt dans le processus de fabrication. De cette façon, les entreprises peuvent agir pour corriger les problèmes avant que le produit final ne soit terminé. Cette approche aide à éviter les coûts et le gaspillage associés aux produits défectueux. Une méthode pour y parvenir est l'Analyse des causes profondes (RCA), qui aide à identifier les raisons des problèmes de qualité. En comprenant ces causes profondes, les fabricants peuvent améliorer leurs processus et prévenir les problèmes futurs.

Le processus de fabrication

Le processus de création de tapis et moquettes en laine implique plusieurs étapes. La laine brute est recueillie puis nettoyée. Après nettoyage, la laine passe par différentes étapes de transformation où elle est teintée et transformée en produits finis. Chaque étape peut impacter la qualité finale, surtout la couleur. Par exemple, lorsque la laine brute est teinte, la couleur résultante peut dépendre de divers facteurs, notamment du teint et de la couleur originale de la laine. Les fabricants inspectent manuellement les produits finis, attribuant des grades de qualité en fonction de la couleur, de la texture et de l'apparence générale.

Collecte de données et défis

Pour faire des prédictions précises sur la qualité, une quantité importante de données doit être collectée. Ces données couvrent tout, des propriétés de la laine brute aux variables de fabrication utilisées tout au long du processus. Cependant, des défis surgissent dans la gestion de ces données. D'une part, les données peuvent avoir des valeurs manquantes, ce qui complique l'analyse. De plus, l'information peut être très déséquilibrée, signifiant qu'il y a beaucoup plus de bons produits que de défectueux.

Pour résoudre ces problèmes, les fabricants doivent prétraiter les données efficacement. Cela implique de nettoyer les données pour éliminer les inexactitudes et s'assurer qu'elles sont dans un format approprié pour l'analyse.

Ingénierie des fonctionnalités

L'ingénierie des fonctionnalités est une étape cruciale pour préparer les données à l'analyse. Cela implique de créer de nouvelles variables à partir de données existantes qui pourraient aider à améliorer la précision des prédictions. Par exemple, des informations supplémentaires sur la couleur de la laine ou la longueur des fibres peuvent être calculées et ajoutées au jeu de données. Ces nouvelles fonctionnalités peuvent fournir des informations qui n'auraient pas été évidentes en utilisant uniquement les données d'origine.

Dans le cas des tapis en laine, les fonctionnalités basées sur la couleur de la laine brute et la formulation des teintures étaient cruciales. L'ajout de fonctionnalités qui reflètent les différences de couleur à différents stades de transformation a aidé les modèles prédictifs à mieux fonctionner.

Sélection de fonctionnalités

Une fois que les données ont été préparées et que de nouvelles fonctionnalités ont été créées, la prochaine étape est la sélection de fonctionnalités. Ce processus consiste à identifier les variables les plus importantes qui contribuent aux prédictions de qualité. C'est essentiel, car utiliser trop de fonctionnalités peut mener à un surajustement, où un modèle apprend trop bien les données d'entraînement mais échoue à se généraliser sur de nouvelles données.

Il existe plusieurs méthodes pour la sélection de fonctionnalités. La méthode SelectKBest identifie les fonctionnalités les plus performantes en fonction de tests statistiques. Le coefficient de corrélation de Pearson examine les relations entre différentes fonctionnalités et la variable cible, aidant à éliminer les informations redondantes. L'algorithme Boruta va encore plus loin en ajoutant des fonctionnalités aléatoires pour voir lesquelles des fonctionnalités originales se démarquent encore comme importantes.

Modèles de prédiction

Pour prédire la qualité des produits, trois modèles d'apprentissage automatique ont été évalués : les arbres de décision, les Forêts aléatoires et XGBoost.

Arbres de décision

Un arbre de décision est la méthode la plus simple parmi celles-ci. Il fonctionne en posant une série de questions basées sur les caractéristiques des données pour classer un produit comme acceptable ou défectueux. Bien que cette méthode soit simple et facile à interpréter, elle ne fonctionne pas toujours bien sur des ensembles de données complexes.

Forêts aléatoires

Les forêts aléatoires améliorent les arbres de décision en combinant plusieurs arbres pour faire des prédictions. Chaque arbre vote sur le résultat final, ce qui aide à créer un modèle plus précis. Cette méthode tire parti de la diversité des différents arbres et tend à mieux performer qu'un seul arbre de décision.

XGBoost

XGBoost est une autre méthode d'apprentissage par ensemble qui construit des arbres de manière séquentielle. Chaque nouvel arbre corrige les erreurs commises par les précédents, menant à des prédictions très précises. XGBoost a gagné en popularité dans divers secteurs grâce à sa robustesse.

Évaluation des modèles

Après avoir entraîné les modèles, ils doivent être évalués pour voir à quel point ils prédisent la qualité des produits. Un aspect important de l'évaluation est l'équilibre entre la précision et le rappel. La précision mesure combien de produits défectueux prédits l'étaient vraiment, tandis que le rappel mesure combien de produits réellement défectueux ont été correctement identifiés.

Dans la fabrication textile, identifier à tort un bon produit comme défectueux (faux positif) peut entraîner un retravail inutile, tandis que manquer un produit défectueux pourrait engendrer des plaintes des clients. Par conséquent, les deux métriques sont essentielles pour garantir que les modèles de prédiction remplissent efficacement leur fonction.

Résultats

Les résultats ont montré que le modèle de forêt aléatoire combiné à la méthode de Sélection de caractéristiques Boruta a fourni la meilleure précision dans la prédiction de la qualité. Avec les bonnes fonctionnalités, les modèles ont pu prédire efficacement les défauts de produit, aidant les fabricants à prendre de meilleures décisions.

Cependant, il était clair qu'il y avait encore de la place pour l'amélioration. De nombreux résultats étaient en dessous du seuil de performance souhaité, ce qui pourrait être amélioré en utilisant un ensemble de données plus large ou en affinant le processus de sélection des fonctionnalités.

Importance de l'explicabilité

À mesure que les modèles d'apprentissage automatique deviennent plus complexes, il est crucial de s'assurer que leurs prédictions peuvent être comprises par les personnes qui vont les appliquer. Ainsi, les techniques d'explicabilité sont nécessaires pour interpréter les décisions du modèle.

Dans le contexte de la fabrication, cela signifie que les entreprises devraient être capables de comprendre quelles fonctionnalités ont contribué à une prédiction et pourquoi certaines décisions ont été prises. Cette compréhension peut informer des actions ultérieures, menant à de meilleures pratiques de contrôle de la qualité et à des améliorations globales des processus de fabrication.

Conclusion

L'industrie de la fabrication textile peut bénéficier énormément de l'utilisation des techniques d'apprentissage automatique pour la prédiction de la qualité. En s'appuyant sur les données du processus de fabrication, les entreprises peuvent identifier les problèmes de qualité potentiels tôt et prendre des mesures correctives. Cette méthodologie combine l'analyse statistique et l'apprentissage automatique pour un contrôle de qualité efficace.

À l'avenir, il y a un potentiel d'élargir ces méthodes pour inclure d'autres produits, et des modèles plus complexes pourraient être développés. Incorporer les retours d'experts techniques peut encore améliorer les capacités prédictives de ces systèmes, garantissant que les fabricants non seulement identifient les problèmes mais les traitent efficacement. En agissant ainsi, les entreprises peuvent maintenir des normes de qualité élevées et améliorer la satisfaction des clients, menant finalement à de meilleurs résultats commerciaux.

Source originale

Titre: Utilising Explainable Techniques for Quality Prediction in a Complex Textiles Manufacturing Use Case

Résumé: This paper develops an approach to classify instances of product failure in a complex textiles manufacturing dataset using explainable techniques. The dataset used in this study was obtained from a New Zealand manufacturer of woollen carpets and rugs. In investigating the trade-off between accuracy and explainability, three different tree-based classification algorithms were evaluated: a Decision Tree and two ensemble methods, Random Forest and XGBoost. Additionally, three feature selection methods were also evaluated: the SelectKBest method, using chi-squared as the scoring function, the Pearson Correlation Coefficient, and the Boruta algorithm. Not surprisingly, the ensemble methods typically produced better results than the Decision Tree model. The Random Forest model yielded the best results overall when combined with the Boruta feature selection technique. Finally, a tree ensemble explaining technique was used to extract rule lists to capture necessary and sufficient conditions for classification by a trained model that could be easily interpreted by a human. Notably, several features that were in the extracted rule lists were statistical features and calculated features that were added to the original dataset. This demonstrates the influence that bringing in additional information during the data preprocessing stages can have on the ultimate model performance.

Auteurs: Briony Forsberg, Dr Henry Williams, Prof Bruce MacDonald, Tracy Chen, Dr Reza Hamzeh, Dr Kirstine Hulse

Dernière mise à jour: 2024-07-26 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2407.18544

Source PDF: https://arxiv.org/pdf/2407.18544

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires