Upgrade to Pro — share decks privately, control downloads, hide ads and more …

oneclasssupportvectormachine

Sponsored · Your Podcast. Everywhere. Effortlessly. Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
Avatar for yuki yuki
January 31, 2021
6.5k

 oneclasssupportvectormachine

Avatar for yuki

yuki

January 31, 2021
Tweet

Transcript

  1. 5 1クラスSVMの問題点 ✓ 異常データが極端に少ない or 全くないため 分類境界をいかようにも引けてしまう ✓ 異常/正常のラベルは与えられないため 何をもって異常データとするかの指標が必要!

    正常 異常 x 1 x 2 分類境界 = 0 正常? 異常? x 1 x 2 明らかに外れていると わかりやすい 明らかじゃないと わかりづらい 案2 案1 案3
  2. 6 原点付近を異常データとみなす! ✓ 原点付近のデータを異常データとみなす ✓ 原点に近ければ異常,原点から遠ければ正常と判断 x 1 x 2

    異常 データ ሚ = T 境界の決定関数は次式 評価関数を = T + と定義し,次のように判断 ሚ :0に近い小さい値 ⇒異常! ሚ :0から離れた大きい値 ⇒正常! = 0 ሚ = 0 ⟺ = ここで ሚ ≥ としている (後ほど説明)
  3. 8 カーネル関数による非線形写像の表現 ✓ 非線形写像は非負のカーネル関数によって表現 ✓ 評価関数の値によって異常/正常を判断する ሚ = T =

    ෍ =0 , 非線形写像後の評価関数 双対表現 ሚ :0に近い小さい値 ⇒異常! ሚ :0から離れた大きい値 ⇒正常!
  4. 9 カーネル関数のイメージ ✓ カーネル関数は2つの入力ベクトルのデータの類似度を表現 ✓ 入力データに似た(=正常の可能性が高い)データは 評価関数の値が大きくなる ሚ = ෍

    =0 , = ෍ =0 exp − − 2 RBFカーネル exp − − 2 − 2 xとx(i)の (ユークリッド)距離が 近い 遠い 近いと大きい 遠いと小さい 評価関数(RBFカーネルの例)
  5. 12 1クラスSVMの定式化 ✓ 1クラスサポートベクターマシンの分類境界を 下記のように定義 = T − = 0

    1クラスSVMの分類境界 > 0 :バイアス Φ(x 1 ) Φ(x 2 ) = 0 マージン:
  6. 13 マージン最大化問題の定式化 ✓ 1クラスSVMのマージン最大化問題は 次式のように定式化できる ✓ 以降,サポートベクター回帰の定式化と類似する点が多いためこちらも要参照 ✓ https://yuyumoyuyu.com/2021/01/10/supportvectorregression/ min

    , 1 2 2 − + 1 ෍ =0 max 0, − T − 1クラスSVMのマージン最大化問題 マージン の最大化 分類境界を超えて異常と判断する データ数の最小化 > 0 :ハイパー パラメータ = 0 第3項目 > 0 第3項目 = 0
  7. 15 ラグランジュの未定乗数法による変換 ✓ ラグランジュの未定乗数法により主問題を max-min問題に変換する max ≥,≥ min ,, ,

    , , , , , , , = 1 2 2 − + 1 ෍ =0 − ෍ =0 T − + − ෍ =0 以下は全て新たに 導入する非負の変数 = 0 , … , T = 0 , … , T ラグランジュ関数の導入 変換したmax-min問題 この問題が主問題と等価 であることの証明は省略 (参考文献参照) min ,, 1 2 2 − + 1 ෍ =0 . . ≥ − T − , ≥ 0 = 0, … ,
  8. 16 ラグランジュ関数の主変数による最小化 ✓ ラグランジュ関数は主変数に対して微分可能であるため 各主変数で偏微分して0とすることで関係式を求める (偏微分して0となる点で最小となる) = − ෍ =0

    = ⇔ = ෍ =0 = −1 + ෍ =0 = 0 ⇔ ෍ =0 = 1 = 1 − − = 0, = 0,1, … , , , , , = 1 2 2 − + 1 ෍ =0 − ෍ =0 T − + − ෍ =0 ラグランジュ関数 主変数による偏微分
  9. 17 主変数を削除する ✓ 前ページで求めた関係式をラグランジュ関数に適用し 双対変数のみの関数に変形(主変数に対して最小化する) が計算過程で削除できるため のみの関数となる! , , ,

    , = 1 2 2 − + 1 ෍ =0 − ෍ =0 T − + − ෍ =0 = 1 2 2 + ෍ =0 1 − − − ෍ =0 T − 1 − ෍ =0 = 1 2 ෍ =0 ෍ =0 T − ෍ =0 ෍ =0 T = − 1 2 ෍ =0 ෍ =0 T = − 1 2 ෍ =0 ෍ =0 , まとめる 関係式を適用 まとめる = ෍ =0 , ෍ =0 = 1 1 − − = 0, = 0,1, … , 偏微分による関係式
  10. 18 双対問題が完成 ✓ 双対変数の非負条件と偏微分で得られた関係式から 下記の範囲制約が求まる 0 ≤ , 0 ≤

    = 1 − ⟹ 0 ≤ ≤ 1 ✓ よって,双対問題は次式のように求まる ✓ 双対問題を解くと α が求められる max − 1 2 ෍ =0 ෍ =0 , s. t. ෍ =0 = 1, 0 ≤ ≤ 1 = 0, … , 1クラスSVMの双対問題
  11. 20 ハイパーパラメータ ν の役割 ✓ ハイパーパラメータ ν は学習データの偽陽性率を調整 ✓ ν

    を大きくすると異常と判定される学習データが増加 = 0.01 = 0.05 = 0.1 = 0.3 分類境界 正常 異常