Avancées dans la détection d'anomalies non supervisée
Une nouvelle méthode améliore la précision de détection des anomalies sans données étiquetées.
― 11 min lire
Table des matières
- Le défi de la confiance des utilisateurs
- Le besoin d'une Métrique de confiance
- Proposition d'une nouvelle approche
- Comprendre la détection d'anomalies
- Apprendre à Rejeter
- Métriques de confiance et stabilité
- Principales conclusions de l'analyse théorique
- Fixer le seuil de rejet
- Estimation et limitation du taux de rejet
- Coût attendu au moment du test
- Travaux connexes en détection d'anomalies
- Configuration expérimentale
- Résultats des expériences
- Impact des variations des fonctions de coût
- Confirmation des résultats théoriques
- Conclusions et limites
- Source originale
- Liens de référence
La Détection d'anomalies, c'est trouver des comportements inattendus dans les données. Ces comportements inattendus, ou anomalies, peuvent causer des problèmes graves comme la perte de données importantes, des fuites dans les systèmes d'eau, des pannes de machines, ou des échecs dans l'extraction de pétrole. Identifier rapidement ces anomalies est crucial car elles peuvent entraîner des coûts - financiers (comme la maintenance ou la fraude) ou environnementaux (comme la pollution).
Le défi de la confiance des utilisateurs
Quand on utilise des systèmes pour détecter des anomalies, c'est super important que les utilisateurs aient confiance dans les résultats. Le souci, c'est qu'obtenir des étiquettes fiables pour ces anomalies est souvent difficile. Les anomalies ne suivent pas toujours des schémas clairs, rendant la tâche plus complexe. C'est pour ça que beaucoup de méthodes de détection d'anomalies fonctionnent sans données étiquetées, en s'appuyant sur l'apprentissage non supervisé. Les méthodes traditionnelles établissent une frontière entre ce qui est normal et ce qui ne l'est pas, en se basant sur des heuristiques - des règles basées sur l'intuition plutôt que sur des données concrètes. Malheureusement, ces règles peuvent être difficiles à vérifier.
À cause de ces incertitudes, surtout pour les données proches de la frontière de décision, les utilisateurs peuvent se sentir incertains quant aux prédictions faites par le système de détection. Pour améliorer la confiance des utilisateurs, une suggestion est de permettre au système de rejeter les cas où il n'est pas sûr de ses prédictions. Mais mettre cette méthode en place pose de nouveaux défis, particulièrement pour déterminer comment évaluer la confiance dans les prédictions sans avoir accès à de vraies étiquettes pour les anomalies.
Le besoin d'une Métrique de confiance
L'idée principale de permettre à un système de s'abstenir de faire des prédictions quand il n'est pas sûr est connue sous le nom d'Apprendre à Rejeter. Dans ce cadre, le modèle peut choisir de ne pas faire de prédictions quand il pense qu'il pourrait se tromper, améliorant ainsi ses performances sur les prédictions qu'il fait. Cependant, cela crée une situation où une personne doit intervenir pour prendre des décisions chaque fois que le modèle choisit de ne pas prédire.
Actuellement, il y a deux types de stratégies de rejet utilisées. La première est le rejet de nouveauté, où le modèle s'abstient quand il rencontre des données nouvelles ou inhabituelles. La deuxième est le rejet d'ambiguïté, qui se produit lorsque le modèle s'abstient quand il n'est pas sûr de sa prédiction, surtout quand il fait face à des données trop proches de la frontière de décision. Étant donné que les anomalies ne rentrent souvent pas dans des catégories claires, le rejet de nouveauté n'est pas idéal ici, car le modèle rejetterait toutes les anomalies.
En revanche, les méthodes actuelles pour le rejet d'ambiguïté nécessitent d'évaluer la performance du modèle sur des données pour lesquelles les prédictions sont faites, comparées à des données où les prédictions sont retenues. Cela signifie que le modèle doit s'appuyer sur des données étiquetées, qui ne sont pas disponibles dans le contexte de la détection d'anomalies.
Proposition d'une nouvelle approche
Cet article aborde ce défi en proposant une approche nouvelle qui permet le rejet d'ambiguïté de manière complètement non supervisée. L'approche a trois contributions clés :
- Une analyse approfondie d'une métrique de Stabilité utilisée pour la détection d'anomalies avec des propriétés qui aident dans l'Apprentissage à Rejeter.
- La conception d'un mécanisme de rejet qui ne nécessite pas de données étiquetées tout en offrant des garanties souvent souhaitées dans les méthodes d'Apprentissage à Rejeter.
- Une évaluation expérimentale montrant que cette nouvelle méthode surpasse les approches précédentes basées sur d'autres métriques non supervisées.
Comprendre la détection d'anomalies
Dans la détection d'anomalies, l'objectif est d'identifier des exemples d'anomalies dans un ensemble de données donné. Ces exemples sont transformés en scores, avec des scores plus élevés suggérant qu'un exemple est plus susceptible d'être une anomalie. Comme il n'y a pas d'étiquettes pour guider le processus, un seuil est généralement établi pour distinguer entre les exemples normaux et anormaux.
Sans étiquettes, le seuil est souvent fixé en fonction d'une proportion attendue d'anomalies dans l'ensemble de données. Cela s'appelle le facteur de contamination, qui est une estimation du nombre d'exemples dans l'ensemble de données qui sont des anomalies.
Apprendre à Rejeter
Dans le cadre de l'Apprentissage à Rejeter, les résultats sont étendus pour inclure une option de s'abstenir complètement de faire des prédictions. Cela implique d'apprendre un deuxième modèle pour déterminer quand s'abstenir. Un moyen courant d'y parvenir est de définir un score de confiance et un seuil de rejet.
Quand la confiance du modèle dans une prédiction tombe en dessous de ce seuil, il choisit de ne pas faire de prédiction. Le défi ici est de trouver le bon seuil sans données étiquetées.
Métriques de confiance et stabilité
Les métriques traditionnelles reposent sur la quantification de la probabilité qu'une prédiction soit correcte, ce qui nécessite des étiquettes. Au lieu de cela, cette approche suggère de se concentrer sur le concept de stabilité. La stabilité fait référence à la cohérence de la sortie du modèle lorsque des changements légers sont apportés aux données d'entraînement. Si des changements légers entraînent des sorties différentes, la prédiction est considérée comme instable.
Une métrique de confiance basée sur la stabilité peut être utilisée pour exprimer à quel point la sortie est stable pour un exemple donné. Si un exemple est stable, cela signifie que la prédiction n'est pas sensible aux petites modifications des données d'entraînement, tandis que des prédictions instables indiquent que même de petits changements pourraient faire basculer l'étiquette prédite.
Principales conclusions de l'analyse théorique
La nouvelle proposition met en évidence un nombre limité de cas où les exemples recevront de faibles scores de confiance. Cela est largement dû au fait que de nombreux exemples tomberont dans des catégories que le modèle peut identifier avec confiance, soit comme normaux, soit comme anormaux. Par exemple, les données normales ont tendance à se regrouper, tandis que les anomalies sont souvent isolées.
La méthode, appelée Rejet via ExCeeD, calcule une métrique de confiance basée sur la stabilité et rejette les exemples qui tombent en dessous d'un seuil spécifique. Ce seuil constant permet d'assurer des garanties solides, notamment des estimations de la proportion de rejets et des limites supérieures sur les coûts attendus.
Fixer le seuil de rejet
L'analyse indique que les exemples avec une faible confiance sont ceux qui sont proches de la frontière de décision du modèle. Ainsi, la méthode suggère de rejeter tout exemple qui tombe en dessous du seuil prédéterminé. Plus le seuil est serré, moins il y aura d'exemples rejetés.
En augmentant le nombre d'exemples d'entraînement, la sensibilité à la frontière de décision diminue, ce qui signifie que plus d'exemples recevront un score de confiance stable et élevé. À l'inverse, diminuer la tolérance à l'incertitude conduit à une zone plus large de rejets potentiels.
Estimation et limitation du taux de rejet
Connaître le taux de rejet est essentiel pour comprendre combien d'exemples le modèle choisira de ne pas prédire. C'est un aspect vital pour différencier les différents modèles. Par conséquent, une manière d'estimer le taux de rejet est proposée, qui converge vers le vrai taux à mesure que la taille de l'ensemble d'entraînement augmente.
Un estimateur simple est fourni pour calculer le taux de rejet basé sur les performances du modèle entraîné. Étant donné que la véritable distribution des scores d'exemple est inconnue, des estimations sont faites sur la base des scores d'entraînement disponibles.
Coût attendu au moment du test
Un aspect important du scénario d'Apprentissage à Rejeter est les coûts associés à différents résultats. Les faux positifs, les faux négatifs et les rejets entraînent chacun leurs coûts associés. En estimant un coût attendu par exemple, on peut choisir entre différents modèles.
La méthode proposée inclut des limites supérieures sur les coûts pour les résultats attendus, garantissant que le modèle évite des coûts élevés au fil du temps. En utilisant le taux de rejet estimé, les coûts attendus encourus peuvent être maintenus dans des limites acceptables.
Travaux connexes en détection d'anomalies
Bien qu'il n'y ait pas beaucoup de travaux existants se concentrant sur l'Apprentissage à Rejeter dans la détection d'anomalies non supervisée, il existe des domaines de recherche similaires. Le premier concerne les méthodes supervisées, qui peuvent améliorer les modèles en utilisant des étiquettes pour optimiser les seuils de rejet en fonction des performances du modèle. Le second inclut les méthodes auto-supervisées qui génèrent des pseudo-étiquettes pour les données d'entraînement, permettant un apprentissage supervisé traditionnel.
Enfin, l'optimisation des métriques non supervisées est une autre catégorie où les chercheurs dérivent les seuils de rejet à partir de métriques qui peuvent être calculées sans étiquettes. Ces métriques se concentrent sur des aspects comme la cohérence des prédictions ou la fiabilité du modèle, aidant à déterminer des seuils de rejet efficaces.
Configuration expérimentale
Dans les expériences, la nouvelle méthode est comparée à plusieurs bases de référence à travers 34 ensembles de données disponibles publiquement avec diverses applications. Différentes méthodes sont testées pour leur performance sur de nombreux scénarios, y compris les variations des fonctions de coût.
Différents détecteurs d'anomalies non supervisés sont employés, et la méthode est évaluée en fonction de la manière dont elle fixe les seuils de rejet par rapport à d'autres approches, tout en tenant compte de l'efficacité computationnelle.
Résultats des expériences
Les résultats indiquent que la nouvelle méthode atteint souvent des coûts plus bas par rapport à d'autres bases de référence, performante particulièrement bien dans différents scénarios. La méthode se classe constamment haut dans les détecteurs et présente des performances globales supérieures.
Des tests statistiques menés durant la recherche montrent que la nouvelle approche est significativement meilleure que d'autres méthodes à travers plusieurs détecteurs, démontrant ainsi son efficacité.
Impact des variations des fonctions de coût
Faire varier les coûts associés à différents résultats donne un aperçu de la flexibilité de la méthode. En ajustant ces coûts, on comprend mieux à quel point la méthode est sensible aux changements dans son processus de décision.
Dans différents cas, la nouvelle méthode maintient son avantage concurrentiel et atteint des coûts moyens plus bas par rapport aux autres méthodes de référence.
Confirmation des résultats théoriques
Les expériences vérifient également les garanties théoriques décrites dans l'approche. Les estimations de coûts restent en dessous des limites supérieures prévues, et les taux de rejet s'alignent étroitement avec les résultats empiriques à travers divers ensembles de données.
Ces résultats renforcent la confiance dans les prédictions théoriques de la méthode et son applicabilité pratique, solidifiant son potentiel pour des tâches de détection d'anomalies dans le monde réel.
Conclusions et limites
En résumé, la méthode proposée répond efficacement aux défis associés à l'Apprentissage à Rejeter dans la détection d'anomalies non supervisée. En s'appuyant sur une métrique de stabilité, la proposition offre des moyens de fixer des seuils de rejet sans avoir besoin de données étiquetées.
Cependant, il y a des limites à la méthode. Puisqu'elle fonctionne sans étiquettes, elle présente une vision moins nuancée de la performance, surtout dans les cas où les anomalies peuvent avoir des coûts différents. La présence d'un taux de rejet positif peut également entraîner un coût potentiellement plus élevé pour un détecteur par ailleurs précis.
Les travaux futurs pourraient explorer des solutions plus sur mesure qui traitent des coûts variés ou développer des modèles qui s'adaptent mieux aux complexités réelles de la détection d'anomalies.
Titre: Unsupervised Anomaly Detection with Rejection
Résumé: Anomaly detection aims at detecting unexpected behaviours in the data. Because anomaly detection is usually an unsupervised task, traditional anomaly detectors learn a decision boundary by employing heuristics based on intuitions, which are hard to verify in practice. This introduces some uncertainty, especially close to the decision boundary, that may reduce the user trust in the detector's predictions. A way to combat this is by allowing the detector to reject examples with high uncertainty (Learning to Reject). This requires employing a confidence metric that captures the distance to the decision boundary and setting a rejection threshold to reject low-confidence predictions. However, selecting a proper metric and setting the rejection threshold without labels are challenging tasks. In this paper, we solve these challenges by setting a constant rejection threshold on the stability metric computed by ExCeeD. Our insight relies on a theoretical analysis of such a metric. Moreover, setting a constant threshold results in strong guarantees: we estimate the test rejection rate, and derive a theoretical upper bound for both the rejection rate and the expected prediction cost. Experimentally, we show that our method outperforms some metric-based methods.
Auteurs: Lorenzo Perini, Jesse Davis
Dernière mise à jour: 2023-10-17 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2305.13189
Source PDF: https://arxiv.org/pdf/2305.13189
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.