Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
わかりやすいパターン認識第5章
Search
Hassaku-kun
January 29, 2018
Science
1
1.5k
わかりやすいパターン認識第5章
手塚若林研で行われたわかりやすいパターン認識読み会第5回の資料
Hassaku-kun
January 29, 2018
Tweet
Share
Other Decks in Science
See All in Science
点群ライブラリPDALをGoogleColabにて実行する方法の紹介
kentaitakura
1
400
高校生就活へのDA導入の提案
shunyanoda
0
5.9k
機械学習 - SVM
trycycle
PRO
1
880
02_西村訓弘_プログラムディレクター_人口減少を機にひらく未来社会.pdf
sip3ristex
0
610
学術講演会中央大学学員会府中支部
tagtag
0
300
テンソル分解による糖尿病の組織特異的遺伝子発現の統合解析を用いた関連疾患の予測
tagtag
2
240
データベース01: データベースを使わない世界
trycycle
PRO
1
780
Agent開発フレームワークのOverviewとW&B Weaveとのインテグレーション
siyoo
0
330
MCMCのR-hatは分散分析である
moricup
0
440
01_篠原弘道_SIPガバニングボード座長_ポスコロSIPへの期待.pdf
sip3ristex
0
660
CV_5_3dVision
hachama
0
150
NASの容量不足のお悩み解決!災害対策も兼ねた「Wasabi Cloud NAS」はここがスゴイ
climbteam
0
130
Featured
See All Featured
Automating Front-end Workflow
addyosmani
1370
200k
Why Our Code Smells
bkeepers
PRO
339
57k
Reflections from 52 weeks, 52 projects
jeffersonlam
352
21k
Facilitating Awesome Meetings
lara
55
6.5k
The Pragmatic Product Professional
lauravandoore
36
6.9k
Templates, Plugins, & Blocks: Oh My! Creating the theme that thinks of everything
marktimemedia
31
2.5k
What's in a price? How to price your products and services
michaelherold
246
12k
Thoughts on Productivity
jonyablonski
70
4.8k
Bootstrapping a Software Product
garrettdimon
PRO
307
110k
Rebuilding a faster, lazier Slack
samanthasiow
83
9.2k
Building a Scalable Design System with Sketch
lauravandoore
462
33k
Large-scale JavaScript Application Architecture
addyosmani
513
110k
Transcript
わかりやすいパターン認識 第5章 特徴の評価とベイズ誤り確率 谷口正樹 1
5.1 特徴の評価 • 認識系は前処理部,特徴抽出部,識別部からなる(第1章よ り) • 認識系が期待通りの性能を発揮しなかった時,性能を低下させ た原因がどの処理部にあるのか明確にしたい 2
5.1 特徴の評価 図5・1 2 1 1 2 (a) 2 1
1 2 (b) 2 1 1 2 (c) 3
5.1 特徴の評価 • (a)のとき,特徴抽出部には問題はない • (b)または(c)のような場合,誤認識が発生する 予め特徴の評価が必要 4
5.2 クラス内分散・クラス間分散比 • 5.1より,同一クラスのパターンはなるべく接近し,異なるクラ スのパターンはなるべく離れるような分布にしたい. →分散で表そう! クラス内分散( 2 ) →
なるべく小さい方が良い クラス間分散( 2) → なるべく大きい方が良い J = 2 2 クラス内分散・クラス間分散比を考える 5
5.2 クラス内分散・クラス間分散比 実際の数式 クラス内分散 2 = 1 � =1 �
= − − (5.1) クラス間分散 2 = 1 � =1 − − (5.2) 6
5.2 クラス内分散・クラス間分散比 • クラス内分散・クラス間分散は簡便な評価法である. • が,実際の分布を反映しているとは言い難い場合もある. 2 -2 -2 2
1 2 (a) 1 3 4 2 7 -1 1 1 2 (b) 1 3 4 2 − 7 図5・2 7
5.2 クラス内分散・クラス間分散比 • (a),(b)ではクラス内分散・クラス間分散比が一緒だが,(b)で は重なりが発生してしまっている. • これは,クラス内分散・クラス間分散比が,クラス間の距離だ けを見ていて重なりを考慮していないため 重なりの度合いを考慮した指標がほしい 8
5.3 ベイズ誤り確率とは • 男女を判定する場合を考える. • 一番正確に判定する方法 → 染色体による判定 • 現実的ではないので身長,体重,音声,服装などから判定した
い. → 分布が重なってしまい,一意に分類できない ベイズ誤り確率:「必然的に起こる誤りの確率」 →「分布の重なりの度合い」 9
5.3 ベイズ誤り確率とは 前の2つのクラスの問題を定式化する • 2つのクラス 1 男 ,2 女 •
上2つの生起確率 P 1 ,P 2 • 個の特徴 ベクトル = 1 , 2 , ⋯ − • が観測された時, 1 ,2 に属する確率 P | 1 ,P | 2 • の確率密度関数 10
5.3 ベイズ誤り確率とは 4.1節より 1 + 2 = 1 (5.4) |
1 + | 2 = 1 (5.5) = 1 | 1 + 2 | 2 (5.6) 式(4・4)のベイズの定理より | 1 = | 1 1 (5.7) | 2 = | 2 2 (5.8) が成立 11
5.3 ベイズ誤り確率とは 特徴空間上で分布の重なりがある以上,必ず誤認識を伴う. • あるに対する誤り確率 � | 2 ∈ 1
と判定した時 | 1 ∈ 2 と判定した時 (5.9) • 起こりうる全てのに対する誤り確率 = ∫ (5.10) 12
5.3 ベイズ誤り確率とは 誤り確率 を最小化するには,式(5.10)の において | 1 , | 2
のうち小さいほうが選ばれるようにする. つまり � | 1 > | 2 ⇒ ∈ 1 | 1 < | 2 ⇒ ∈ 2 (5.11) これは事後確率 | = 1,2 を最大にする を出力する 判定方法である. これをベイズ決定則と呼ぶ 13
5.3 ベイズ誤り確率とは の最小値を とすると = min | 1 , |
2 (5.13) である. を条件付きベイズ誤り確率とよぶ. 同様に の最小値を とすると = � d = �min | 1 , | 2 d となる. をベイズ誤り確率とよぶ. (5.15) (5.16) 14
5.3 ベイズ誤り確率とは (ベイズ誤り確率)は,誤り確率をこれ以上は小さくできないと いう限界を示している. その特徴抽出系での判定は よりも正確なものにはならない 15
5.3 ベイズ誤り確率とは を観測せずに男女の判定をする際には事前確率 1 , 2 し か情報がないので2つの比較のみで判定することになる. � 1
> 2 ⇒ ∈ 1 1 < 2 ⇒ ∈ 2 (5.17) 例) 男女比が4:6なら, 1 = 0.4, 2 = 0.6なので,女性と判定 するのが最良.(ただし,4割外れる) 母数が多い方にすれば大体当たるよねという判定 16
5.3 ベイズ誤り確率とは 一方,特定のを観測した場合には判定のための情報量は増える ため,より精度の高い判定が可能になる. その時の判定方法が式(5.11)のベイズ決定則である. � | 1 > |
2 ⇒ ∈ 1 | 1 < | 2 ⇒ ∈ 2 (5.11 再掲) 17
5.3 ベイズ誤り確率とは 今までは2クラスでやっていた ↓ 多クラスの場合に拡張できると嬉しい 18
5.3 ベイズ誤り確率とは 多クラスの場合のベイズ決定則 | > | ∀ ≠ ⇒ ∈
(5.18) あるいは(同じことであるが)表記方法を変えて max i=1,…, | = | ⇒ ∈ (5.19) となる.これは式(4.5)で述べた物と同じである. 19
5.3 ベイズ誤り確率とは また,多クラスの場合のベイズ誤り確率は式(5.16)の代わりに = �min ̇ 1 − | d
(5.20) となる. 20
5.3 ベイズ誤り確率とは 式(5.19)は | が識別関数として使えることを示している. 識別関数を とすると, = | =
1, … , (5.25) である.このようにベイズ決定則を実現するような識別関数を ベイズ識別関数と呼ぶ. 21
5.4 ベイズ誤り確率と最近傍決定則 前節より,ベイズ誤り確率が特徴評価において便利だということ はわかった. しかし,ベイズ誤り確率を求めるために必要な確率密度関数 が既知である場合というのは現実ではまず無い. そのため,ベイズ誤り確率を近似的に求める方法が必要である. 22 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 よく知られているものとしてNN法がある.(1.3節参照) これは最近傍決定則による近似. ベイズ誤り確率を ,NN法の誤り確率を とすると,関係式は 以下になる. ≦ ≦
2 − −1 ≦ 2 (5.26) 23 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 ≦ ≦ 2 − −1 ≦ 2 (5.26)
詳細に見ていくと, • NN法の誤り確率はベイズ誤り確率より大きい(これは自明) • NN法の誤り確率はベイズ誤り確率の2倍を超えない →割と良い近似になって嬉しい. というわけで式(5.26)を導いていきます.(ココでは = 2のとき) 24 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 まず,予め所属クラスのわかっている個のプロトタイプ 1 , 2 , … , を用意する.
入力パターンに対する最近傍を′で表すと, ′はプロトタイプ の中から選ばれるので ′ ∈ 1 , 2 , … , となる. 25 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 NN法で誤りが生じるのは,入力パターンと最近傍′が別のクラ スに属する場合なので,誤り確率 は = | 1 | 2
′ + | 1 ′ | 2 (5.28) である.起こりうる全てのに対する誤り確率 は = ∫ d (5.29) となる. 26 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 ここで,次の仮定を置く. lim →∞ ′ = (5.30) つまり,プロトタイプ数を極限まで増やせば′はに限りなく 近づくということ.したがって,
lim →∞ | ′ = | i = 1,2 (5.31) が成り立つ 27 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 式(5.28)と式(5,31)より, lim →∞ = 2 | 1 |
2 (5.32) = 2 | 1 1 − | 2 (5.33) 式(5.13)を用いて, = 2 1 − (5.34) が得られる 28 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 式(5.13)の変形 = min | 1 , | 2
(5.35) = min | 1 , 1 − | 1 (5.36) ≦ 1 2 (5.37) 29 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 今までの式(5.15),(5.29),(5.34)より を考える = ∫ d (5.15) = ∫
d (5.29) lim →∞ = 2 1 − (5.34) 30 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 前述の3式より,NN法の誤り確率 は = lim →∞ (5.38) = �
lim →∞ d (5.39) = � 2 1 − d (5.40) = 2 1 − − 2・Var (5.41) ≦ 2 1 − (5.42) となる.ただしVar は の分散 31 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 ここで, ≧ B (5.45) は自明(なはず)なので省略. (テキストに証明があります.式(5.40)からの変形で求まりま す.) 32
〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 式(5.37),(5.42),(5.45)をまとめると, ≦ ≦ 2 1 − ≦ 2
(5.46) となり, = 2のときに式(5.26)が導けました. ≦ ≦ 2 − −1 ≦ 2 (5.26再掲) ※ > 2のときの一般化の証明は原論文[CH67]参照 33 〔1〕 最近傍決定則の誤り確率
5.4 ベイズ誤り確率と最近傍決定則 今の話を具体的な例題でやっていきます 34 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 2つのクラス1 , 2 が1次元特徴空間上の区間[0,1]上に分布し, 両クラスの事前確率が 1 = 2
= 1 2 (5.48) と等しい時を考える. また,両クラスの確率密度関数 | 1 , | 2 を以下とする | 1 = 2 (5.49) | 2 = 2 − 2 (5.50) ここでは1次元の特徴値を表す. 35 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 式(5.6)より, = 1 | 1 + 2 |
2 (5.51) = 1 2 ⋅ 2 + 1 2 2 − 2 (5.52) = 1 (5.53) となるため,パターンは一様分布であることがわかる. 36 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 37 〔2〕 誤り確率の計算例 0 1 2 | 1
= 2 | 2 = 2 − 2 図5.3 2クラスの確率密度関数
5.4 ベイズ誤り確率と最近傍決定則 また,ベイズの定理式(4.4)より | 1 = (5.54) | 2 =
1 − (5.55) が得られる. 今後,両クラスで合計個のプロトタイプ1 , 2 , … , を用いて未知パターンを識別することを考える. ※以後, 1 , 2 などは特徴値と同時に入力パターンそのものを表す. 38 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 入力パターンをNN法で識別したときの誤り確率 , ′ は, 式(5.28)より = | 1
| 2 ′ + | 1 ′ | 2 (5.28再掲) , ′ = 1 − ′ + ′ 1 − (5.57) これを′で平均したものを と置くと, = ∫ 0 1 e , ′ , ′ d′ (5.58) = + 1 − 2 (5.61) 39 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 ここで, , ′ は未知パターンに対してその最近傍が′ となる確率. は ≝ ∫
0 1 ′ , ′ d′ (5.62) である. 40 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 , ′ を求める.まず0 ≦ ≦ 1 2 の時.
′ の位置が 0, , , 2 , [2, 1]の3通りの場合で分けて考える. 41 〔2〕 誤り確率の計算例 0 1 1/2 ′ ′ ′ 2 − ′ 2 − ′ 0 ≦ ′ ≦ ≦ ′ ≦ 2 2 ≦ ′ ≦ 1 図5.4 プロトタイプの存在可能な範囲(0 ≦ ≦ 1 2 の場合)
5.4 ベイズ誤り確率と最近傍決定則 追記:ダルい場合分けになってきたので整理しましょう • 0 ≦ ≦ 1 2 のとき
1. 0 ≦ 𝑥 ≦ 2. ≦ 𝑥 ≦ 2 3. 2 ≦ 𝑥 ≦ 1 • 1 2 ≦ ≦ 1のとき 1. 0 ≦ ′ ≦ 2 − 1 2. 2 − 1 ≦ ′ ≦ 3. ≦ ′ ≦ 1 42 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 個のプロトタイプの内1つが図5.4の′の位置に,残り − 1 個 が図の太線の区間に存在している必要がある.そのような確率を 求めると , ′
= 1 − 2 + 2′ −1 0 ≦ ′ ≦ 1 + 2 − 2′ −1 ≦ ′ ≦ 2 1 − ′ −1 2 ≦ ≦ 1 (5.63) よって明らかに∫ 0 1 ⋅ ′ d′ = 1 (5.64)が成り立つ. 43 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 式(5.63)と式(5.62)より, = + 1 +1 1 − 2
− 1 + 1 0 ≦ ≦ 1 2 (5.66) となる. 44 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 次に 1 2 ≦ ≦ 1の時. ′ の位置が
0,2 − 1 , 2 − 1, , [, 1]の3通りの場合で分けて同 様に考える. , ′ = ′ −1 0 ≦ ′ ≦ 2 − 1 1 − 2 + 2′ −1 2 − 1 ≦ ′ ≦ 1 + 2 − ′ −1 ≦ ≦ 1 (5.67) 45 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 個のプロトタイプの内1つが図5.4の′の位置に,残り − 1 個 が図の太線の区間に存在している必要がある.そのような確率を 求めると , ′
= 1 − 2 + 2′ −1 0 ≦ ′ ≦ 1 + 2 − 2′ −1 ≦ ′ ≦ 2 1 − ′ −1 2 ≦ ≦ 1 (5.63) 46 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 0 ≦ ≦ 1 2 の時と同様に, = +
1 +1 2 − 1 − 1 − 1 2 ≦ ≦ 1 (5.68) となる. 47 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 式(5.66),(5.68)を式(5.61)に代入して整理すると, = + 1 − 2 (5.61再掲) 0
≦ ≦ 1 2 のとき = 1 2 − − 1 + 1 1 − 2 n+2 + 1 − 2 n+1 − 1 − 2 2 + 1 (5.69) 1 2 ≦ ≦ 2のとき = 1 2 − − 1 + 1 2 − 1 n+2 + 2 − 1 n+1 − 2 − 1 2 + 1 (5.70) 48 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 したがってNN法の誤り確率 は2 − 1 = と置換することで = ∫
0 1 d (5.71) = 1 2 � 0 1 − −1 +1 +2 + +1 − 2 + 1 d (5.73) = 1 3 + 3+5 2 +1 +2 +3 (5.74) である. 49 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 求めたNN法の誤り確率 を確認していく. もし仮にプロトタイプが一つなら 2クラスの内片方のクラスは誤って識別されるはず → = 1 2
になる. 実際に式(5.74)に = 1を代入すると = 1 2 なので良さそう. 50 〔2〕 誤り確率の計算例
5.4 ベイズ誤り確率と最近傍決定則 プロトタイプが無限のときの = lim →∞ = 1 3 (5.75)
となる.ベイズ誤り確率 は式(5.16)より = ∫ 0 1 min , 1 − d = 1 4 (5.77) 式(5.46)に代入して, ≦ ≦ 2 1 − ≦ 2 (5.46再掲) 1 4 < 1 3 < 3 8 < 1 2 (5.78) となり,関係式が成立 51 〔2〕 誤り確率の計算例
5.5 ベイズ誤り確率の推定法 ベイズ誤り確率を定義式から直接求めるのは難しい →学習パターンから推定する手法を見ていこう 52
5.5 ベイズ誤り確率の推定法 偏り 与えられたパターン集合から何らかの統計量 を推定した場 合,確率変数となる.これを とする この時の の偏り(Bias)は のすべての可能なに渡る平均
値と真横値との差で定義される. Bias = − 0 (5.79) 偏りがゼロの時,不遍や不遍推定量と呼ばれる 53 〔1〕 誤識別率の偏りと分散
5.5 ベイズ誤り確率の推定法 分散 の分散(variance)は推定値間でのばらつきとして Var = E − 2 (5.80)
で定義される. 54 〔1〕 誤識別率の偏りと分散
5.5 ベイズ誤り確率の推定法 • 偏りが小さいほど推定量が真値に近い • 分散が小さいほど推定量の信頼性が高い 55 〔1〕 誤識別率の偏りと分散 推定量の良さの尺度として使える
5.5 ベイズ誤り確率の推定法 ここで,誤識別率を , とする. , :学習パターンの分布の集合 :テストパターンの分布の集合 ※誤識別率は一般に学習パターンとテストパターンの関数になるが,これ は識別機の設計に学習パターンが,評価にテストパターン使われることか
ら明らかである. 56 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 ベイズ誤り確率について考える. ベイズ誤り確率は真の分布で学習し,真の分布でテストした場合 の誤り確率であるといえるので, 真の集合をとした時, , 一方,有限個の学習パターンで推定された分布を � とすると次の
不等式が成り立つ , ≦ � , (5.81) � , � ≦ , � (5.82) 57 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 誤識別率はテストパターンに関して不遍なので,学習パターンと 独立なテストパターンに関する期待値=真の分布でテストした誤 認識率 学習パターンと独立なテストパターンの分布を � ′とすると � ′
{ � , � ′ } = � , (5.84) 式(5.81)より, , ≦ � ′ { � , � ′ } (5.85) 58 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 また,式(5.82)より, � � , � ≦ � ,
� (5.86) テストパターンに関する期待値は不偏より, � , � = , (5.87) よって � � , � ≦ , (5.88) 59 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 式(5.85),(5.88)より,以下のようにベイズ誤り確率の上限値と 下限値がわかる. � � , � ≦ ,
≦ � ′ { � , � ′ } (5.89) このことから,上限と下限で挟み撃ちすることによって ベイズ誤り確率を推定することができる. 60 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 しかし,実際の応用においては期待値計算を直接行うことはできない ので,下限値,上限値は以下の方法で求める. 下限値:再代入法(R法) 学習パターンで識別器を設計し,同じ学習パターンでテストする. 上限値:L法 − で学習し, でテストするという手順をi
= 1,2, … , について行 う. 61 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 しかし,前述R法,L法の推定精度も,特徴の次元数によって精 度が大きく変化する むやみに特徴数を増やすことは識別機の設計だけでなく,特徴の 評価をも困難にする 62 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 63 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 64 〔2〕 ベイズ誤り確率の上限および下限
5.5 ベイズ誤り確率の推定法 65 〔2〕 ベイズ誤り確率の上限および下限