Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Min-max probability machine

Min-max probability machine

Daisuke Yoneoka

November 14, 2023
Tweet

More Decks by Daisuke Yoneoka

Other Decks in Research

Transcript

  1. 下準備2(テキトウな) 1. マハラノビス距離 1. イメージは簡単:相関構造を加味した正規化した距離 2. 外れ値検出に便利:テコ比との関係(マハラ距離/N-1=テコ比) 1. つまり、まはらがデカイと外れ値である可能性大 2.

    グラム行列 1. Aをn次正方行列都市、その随伴行列A*とすると、A*A(当然半正値エルミート) 3. カーネルのイメージ 1. 高次元に写像したら一気に道がひらけたぜ! 2. カーネルトリック使うと、別にφ(x)を定義不要!
  2. Min-max問題 • いま、2 つのクラスに属するそれぞれのデータが存在す るとき、そのデータから平均と共分散行列を推定するこ とは可能。 • しかし、そのデータの分布が分かっている状況はレア。 • 分布の分からないデータに対し、与えられた平均と共分

    散行列をもつ全ての分布に関して、判別率が最悪となる 場合の分布における誤判別率が最小になるような線形判 別関数を求めることを目的とする問題を、Min-max 問 題と呼ぶ。
  3. ミニマックス確率マシン Lanckriet et al. (2002) • 2クラス判別手法 • 線形関数で判別 •

    各クラスの平均ベクトルと分散共分散が既知 • 判別の精度:実際の分布形に依存 最悪精度基準 各クラスについて可能なすべての分布形を考えたとき の最悪の場合の誤判別率が最小になるように線形判別 関数を決定
  4. Minmaxの設定 ) ( b z a z l T +

    = 赤:クラス1 (平均, 共分散)= ) , ( 1 1 S µ 0 < +b x aT 0 > +b x aT , 1 Class 0 Þ < +b x aT , 2 Class 0 Þ > +b x aT . 2 Class or 1 Class 0 Þ = +b x aT 青 :クラス2 (平均,共分散)= ) , ( 2 2 S µ 線形判別関数
  5. 最悪の誤判別率 0}, Pr{ sup ) , ( ~ 12 1

    1 ³ + º S b x aT x µ a クラス1のサンプル の誤判別 率 } 0 { Pr 1 class ³ + Î b x aT x ) , ( 1 1 S µ x 0 < +b x aT 0 > +b x aT , 1 Class 0 Þ < +b x aT , 2 Class 0 Þ > +b x aT . 2 Class or 1 Class 0 Þ = +b x aT 可能な分布形すべてを考え たときの最悪の値 だけでは決まらない。
  6. Marshal and Olkin, 1960 T ⊂ ℜn : convex sup

    x~(µ,Σ) Pr{x ∈ T} = 1 1+ d2 , where d = inf x∈T ||Σ−1/2 (x − µ) || µ T 確率の上限値は から へのマハラノビス距離に等し い!
  7. Fisher’s classifierとの関係 • 教科書54PよりFisherの超平面はこんな感じ • こっから求めるb1 (p(x|y)~N, y:ラベル,x:データ) • Min-max定理で考えたFisher的判別分析によるb2

    (最も 不利な分布での判別関数) • ラベル数がアンバランスな場合 o |b1|≤|b2|ってなるよ! o b2にはバイアスが入るよね!(だって、バランスな場合を想定=一番最悪!)
  8. カーネルって怪しくな いッスか? • 高次元空間上での内積<φ(x),φ(y)>って割と計算無理 ゲー → んじゃ、ある関数k(x,y)で内積がかけたら幸せだよね。 そんな定理有るよ! • Mercerの定理

    o u, v in X の関数 k が内積の形で書ける必要十分条件は • k が対称関数,つまり,k(u, v) = k(v, u) である. • Kが半正定値。つまり、任意の関数gに何して、