Deep One-Class Classification

http://proceedings.mlr.press/v80/ruff18a.html

 

1.Introduction

Anomaly detection(AD)は異常なデータを区別するタスクである。

これらは教師なし学習問題として扱われる。

データの大半は正常データとして仮定される。

目的は"正常性"を正確に記述するモデルを学ぶことである。

(この分野は教師なし学習だから比較的難しい問題なんだな)

伝統的なAD手法では、大量かつ高次元になってきたデータには対応出来ない。

DeepAD手法は有望な結果を示しているけども、

ADベースの最適化が用いられている例は無い。

3.DOC

伝統的な多クラス分類では、クラス外との距離を最大化、 クラス内分散を最小化することを目的とする。

Compactness C

特徴量は同クラスの異なるイメージで似たような特徴量表現であることが望ましい。

特徴量空間はコンパクトであることを求められる。クラス内距離が小さくなるべき。

Descriptiveness D

特徴量は異なるクラスの画像に対して明確な表現を生み出すべきだ。

クラス外距離が大きくなるべき。

伝統的なもんと同じこと言ってんじゃん・・・

 

イメージとしては、

カテゴリ内の雰囲気検出といったところか。

 

One-Class Novelty Detection

テストで初めて出てきた異常を検知する

データセットの1クラスをターゲットとして、それ以外を外部クラスとする

⇒多分、One-Class系の分類で一般的な手法なんだろう

⇒外部クラスの一般性が無いと誤検知が発生しそうだし

⇒制限された状況で利用するDLならば、外部クラスの設定が鍵になりそう

ImageNetデータセットを使って訓練して、Caltech256データセットで評価する