無監督異常検知の進展
新しい方法がラベルなしデータでの異常検出の精度を向上させる。
― 1 分で読む
目次
異常検出はデータの中で予期しない行動を見つけることだよ。この予期しない行動、つまり異常は、重要なデータの喪失、水道システムの漏れ、機械の故障、石油採掘の失敗など、深刻な問題につながることがある。これらの異常をすぐに特定することが重要で、そうしないとコストがかかる(メンテナンスや詐欺みたいな財政的なものや、汚染みたいな環境的なもの)。
ユーザーの信頼の課題
異常を検出するシステムを使うとき、結果にユーザーが信頼を寄せることが大事だよ。でも、異常に対して信頼できるラベルを得るのが難しいことが多い。異常ははっきりしたパターンに従わないことが多いから、作業が複雑になるんだ。だから、多くの異常検出の方法は、ラベルのないデータを使って、教師なし学習に依存して動いてる。従来の方法は、直感に基づくヒューリスティックに基づいて、正常と異常の境界を設定するけど、残念ながらこれらのルールは確認が難しい。
こういった不確実性のため、特に決定境界に近いデータでは、ユーザーは検出システムが出す予測に対して不安を感じるかもしれない。ユーザーの信頼を高めるために、システムに自信がない場合はケースを拒否することを提案することがあるけど、これを実装するのは新たな課題をもたらすんだ。特に、本当の異常ラベルにアクセスできない状態で、予測の自信を評価する方法を決定することが難しい。
自信のメトリックが必要
自信がないときに予測を控えることを許すシステムのコアアイデアは「拒否学習」と呼ばれる。この設定では、モデルは間違っているかもしれないと思うときに予測をしないことを選べるから、実際の予測のパフォーマンスを向上させることができる。しかし、モデルが予測をしないときは誰かが判断を下す必要がある状況を生むんだ。
現在、使われている拒否戦略は2種類ある。1つ目は新規拒否で、モデルが新しいデータや変わったデータに出会ったときに控えるもの。2つ目は曖昧性拒否で、モデルが予測に自信がないとき、特に決定境界に近いデータに直面したときに控える。異常はしばしばはっきりしたカテゴリに収まらないから、新規拒否はこの状況には理想的じゃない。モデルはすべての異常を拒否することになるから。
一方、現在の曖昧性拒否の方法は、予測がなされたデータと予測が保留されたデータでのモデルパフォーマンスの評価を要求する。つまり、モデルはラベル付きデータに依存する必要があるけど、異常検出の文脈ではそれが得られない。
新しいアプローチの提案
この論文は、完全に教師なしで曖昧性拒否を可能にする新しいアプローチを提案して、この課題に取り組む。アプローチには3つの重要な貢献がある:
- 「拒否学習」に役立つ性質を持つ異常検出用安定性メトリックの徹底的な分析。
- ラベル付きデータを必要とせず、拒否学習方法でよく求められる保証を提供する拒否メカニズムの設計。
- この新しい方法が他の教師なしメトリックに基づいた過去のアプローチよりも優れていることを示す実験的評価。
異常検出の理解
異常検出では、与えられたデータセットの中で異常の例を見つけることが目標だ。これらの例はスコアに変換され、高いスコアがその例が異常である可能性が高いことを示すよ。ガイドするラベルがないから、通常と異常の例を区別するためにしばしばしきい値を設定する。
ラベルがない場合、しきい値はデータセット内の異常の期待される割合に基づいて設定されることが多い。これを汚染因子と呼ぶけど、これはデータセット内の異常の数を見積もるものだ。
拒否学習
拒否学習フレームワークでは、出力が予測を控えるオプションを含むように拡張される。これは、控えるべき時を決定するために第二のモデルを学習することを含む。一般的に、この目的を達成する方法は、自信スコアと拒否しきい値を定義することだ。
モデルの予測に対する自信がこのしきい値を下回ると、予測をしないことを選ぶ。ここでの課題は、ラベル付きデータなしで正しいしきい値を見つけることだ。
自信メトリックと安定性
従来のメトリックは、予測が正しい可能性を定量化することに依存していて、これにはラベルが必要だ。代わりに、このアプローチは安定性の概念に焦点を当てることを提案している。安定性は、トレーニングデータにわずかな変化があったときに、モデルの出力がどれだけ一貫しているかを指す。わずかな変化が異なる出力をもたらすと、予測は不安定だと見なされる。
安定性に基づく自信メトリックは、特定の例に対して出力がどれだけ安定しているかを表現するのに使える。例が安定していると、トレーニングデータの小さな変化に対して予測が敏感でないことを意味し、不安定な予測は、わずかな変化でも予測ラベルが反転する可能性があることを示す。
理論分析からの主要な発見
新しい提案は、例が低い自信スコアを受け取る限られたケースを強調している。これは多くの例が正常または異常としてモデルが自信を持って特定できるカテゴリに入るからだ。例えば、正常なデータは一般的に集まるけど、異常はしばしば孤立している。
この方法、Rejecting via ExCeeDは、安定性に基づく自信メトリックを計算し、特定のしきい値を下回る例を拒否する。一定のしきい値は強い保証を提供し、拒否の割合の見積もりや期待コストの上限を含む。
拒否しきい値の設定
分析によると、低い自信を持つ例はモデルの決定境界に近いものだ。だから、この方法はあらかじめ決められたしきい値を下回る例を拒否することを提案している。しきい値を厳しく設定すればするほど、拒否される例は少なくなる。
トレーニング例の数を増やすと、決定境界への感度が減るから、より多くの例が安定した高い自信スコアを得ることになる。一方で、不確実性に対する許容度を下げると、拒否の可能性のある範囲が広がる。
拒否率の推定と上限設定
拒否率を知ることは、モデルがどれだけの例に対して予測を控えるかを理解する上で重要だ。この違いは、異なるモデルを区別する上で重要な部分だよ。だから、トレーニングセットのサイズが増えると真の率に収束する拒否率を推定する方法が提案されている。
トレーニングモデルのパフォーマンスに基づいて拒否率を計算するためのシンプルな推定器が提供されている。例のスコアの真の分布が未知だから、利用可能なトレーニングスコアに基づいて推定するんだ。
テスト時の期待コスト
拒否学習のシナリオでは、異なる結果に伴うコストが重要な側面だ。偽陽性、偽陰性、拒否それぞれがコストを引き起こす。期待されるコストを例ごとに見積もることで、異なるモデルの選択が可能になる。
提案された方法は、期待される結果に対するコストの上限を含んでいて、モデルが長期的に高コストを避けることを保証している。推定された拒否率を使って、発生する期待コストを許容範囲内に保つことができる。
異常検出における関連研究
教師なし異常検出における拒否学習に焦点を当てた研究はあまりないけど、類似した研究分野がいくつかある。1つ目は教師あり方法で、ラベルを使って拒否しきい値をモデルパフォーマンスに基づいて最適化できる。2つ目は自己教師あり方法で、トレーニングデータのために擬似ラベルを生成して、従来の教師あり学習を可能にするもの。
最後に、教師なしメトリックを最適化することも、ラベルなしで計算できるメトリックから拒否しきい値を導き出す研究の一カテゴリだ。これらのメトリックは、予測の一貫性やモデルの信頼性のような側面に焦点を当てて、効果的な拒否しきい値を決定するのを助ける。
実験設定
実験では、新しい方法を34の公に利用可能なデータセットでいくつかのベースラインと比較している。さまざまなアプリケーションに対して、異なる方法のパフォーマンスを多くのシナリオでテストしている、コスト関数の変化も含めてね。
異なる教師なし異常検出器が使われて、新しい方法が他のアプローチと比較して拒否しきい値をどのように設定するか、計算効率も考慮しながら評価されている。
実験結果
結果から、新しい方法は他のベースラインよりもしばしば低コストを達成し、さまざまなシナリオで特に優れたパフォーマンスを発揮していることが分かる。方法は一貫して異常検出器の中で高く評価されていて、全体的なパフォーマンスも優れている。
研究中に行われた統計的テストは、新しいアプローチが複数の検出器の中で他の方法よりもかなり優れていることを示していて、その効果を示している。
コスト関数の変化の影響
異なる結果に伴うコストを変化させることは、方法の柔軟性に関する洞察を提供する。これらのコストを調整することで、意思決定プロセスの変化に対する方法の感度がどれだけあるかが明確になる。
さまざまなケースにおいて、新しい方法は競争力を保ちつつ、他のベースライン方法と比べて低い平均コストを達成している。
理論的結果の確認
実験はまた、アプローチで概説された理論的保証を確認している。コストの推定は予測された上限を下回っていて、拒否率はさまざまなデータセットにわたる経験的発見と密接に一致している。
これらの結果は、方法の理論的予測と実用性への信頼を高めて、実際の異常検出タスクへの可能性を固めている。
結論と限界
要するに、提案された方法は教師なし異常検出における拒否学習の課題にうまく対処している。安定性メトリックを活用することで、ラベルなしで拒否しきい値を設定する方法を提供しているよ。
でも、方法には限界もある。ラベルなしで動作するから、異常が異なるコストを持つ場合、パフォーマンスのより綿密な見方を提供できない。正の拒否率の存在は、本来正確な検出器に対して高いコストをもたらす可能性がある。
今後の研究は、さまざまなコストに対応したより適切な解決策を探ったり、異常検出の現実的な複雑さによりよく適応するモデルを開発したりすることができるね。
タイトル: Unsupervised Anomaly Detection with Rejection
概要: Anomaly detection aims at detecting unexpected behaviours in the data. Because anomaly detection is usually an unsupervised task, traditional anomaly detectors learn a decision boundary by employing heuristics based on intuitions, which are hard to verify in practice. This introduces some uncertainty, especially close to the decision boundary, that may reduce the user trust in the detector's predictions. A way to combat this is by allowing the detector to reject examples with high uncertainty (Learning to Reject). This requires employing a confidence metric that captures the distance to the decision boundary and setting a rejection threshold to reject low-confidence predictions. However, selecting a proper metric and setting the rejection threshold without labels are challenging tasks. In this paper, we solve these challenges by setting a constant rejection threshold on the stability metric computed by ExCeeD. Our insight relies on a theoretical analysis of such a metric. Moreover, setting a constant threshold results in strong guarantees: we estimate the test rejection rate, and derive a theoretical upper bound for both the rejection rate and the expected prediction cost. Experimentally, we show that our method outperforms some metric-based methods.
著者: Lorenzo Perini, Jesse Davis
最終更新: 2023-10-17 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2305.13189
ソースPDF: https://arxiv.org/pdf/2305.13189
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。