Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
統計的学習理論の基礎 I
Search
Masanari Kimura
December 11, 2020
Research
3
530
統計的学習理論の基礎 I
Masanari Kimura
December 11, 2020
Tweet
Share
More Decks by Masanari Kimura
See All by Masanari Kimura
Equivalence of Geodesics and Importance Weighting from the Perspective of Information Geometry
mkimura
0
310
機械学習における重要度重み付けとその応用
mkimura
3
2.7k
Paper Intro: Human Rademacher Complexity
mkimura
0
160
On the principle of Invariant Risk Minimization
mkimura
0
320
論文紹介:Clustering with Bregman Divergences: an Asymptotic Analysis
mkimura
0
530
Generalization Bounds for Set-to-Set Matching with Negative Sampling
mkimura
0
150
論文紹介:On the Importance of Gradients for Detecting Distributional Shifts in the Wild
mkimura
2
720
論文紹介:Dangers of Bayesian Model Averaging under Covariate Shift
mkimura
0
330
Information Geometry of Dropout Training
mkimura
0
300
Other Decks in Research
See All in Research
GPUを利用したStein Particle Filterによる点群6自由度モンテカルロSLAM
takuminakao
0
270
データxデジタルマップで拓く ミラノ発・地域共創最前線
mapconcierge4agu
0
210
2021年度-基盤研究B-研究計画調書
trycycle
PRO
0
300
国際論文を出そう!ICRA / IROS / RA-L への論文投稿の心構えとノウハウ / RSJ2025 Luncheon Seminar
koide3
6
4.7k
[輪講] SigLIP 2: Multilingual Vision-Language Encoders with Improved Semantic Understanding, Localization, and Dense Features
nk35jk
2
1k
[CV勉強会@関東 CVPR2025] VLM自動運転model S4-Driver
shinkyoto
2
480
Google Agent Development Kit (ADK) 入門 🚀
mickey_kubo
2
1.8k
診断前の病歴テキストを対象としたLLMによるエンティティリンキング精度検証
hagino3000
1
130
Generative Models 2025
takahashihiroshi
25
13k
AI エージェントを活用した研究再現性の自動定量評価 / scisci2025
upura
1
150
【緊急警告】日本の未来設計図 ~沈没か、再生か。国民と断行するラストチャンス~
yuutakasan
0
150
在庫管理のための機械学習と最適化の融合
mickey_kubo
3
1.1k
Featured
See All Featured
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
113
20k
The Illustrated Children's Guide to Kubernetes
chrisshort
48
50k
How to train your dragon (web standard)
notwaldorf
96
6.2k
The Cost Of JavaScript in 2023
addyosmani
53
8.9k
What’s in a name? Adding method to the madness
productmarketing
PRO
23
3.7k
Practical Tips for Bootstrapping Information Extraction Pipelines
honnibal
PRO
23
1.4k
Connecting the Dots Between Site Speed, User Experience & Your Business [WebExpo 2025]
tammyeverts
8
530
The Power of CSS Pseudo Elements
geoffreycrofte
77
6k
I Don’t Have Time: Getting Over the Fear to Launch Your Podcast
jcasabona
33
2.4k
Code Review Best Practice
trishagee
71
19k
Save Time (by Creating Custom Rails Generators)
garrettdimon
PRO
32
1.6k
[Rails World 2023 - Day 1 Closing Keynote] - The Magic of Rails
eileencodes
36
2.5k
Transcript
CompML 統計的学習理論の基礎 I Masanari Kimura (@machinery81)
CompML TL;DR • 統計的学習理論の基礎的な事項のまとめ • 第一回は以下のトピックについて: • 種々の収束概念 • 確率収束
• 概収束 • UCEP property • ASCEP property • UCEM property • PAC Learning 2
CompML Uniform Convergence
CompML (, ):可測空間,:確率測度 からi.i.d.に生成された! , … , " から計算される ∈
の経験確率 + ; " = ## ∈ = 1 1 #$! " % # 気になるのは, • + (; " )がちゃんと()に収束するのか? • もしそうならば,どのように収束するのか? 4 経験確率(Empirical Probability)
CompML 確率収束(Converges in Probability) 定義.ある > 0について ! % ;
! − () > → 0 ( → ∞) のとき, % (; ! )は()に確率収束するという. 同値な表現として, ∀, > 0, ∃" , > 0 . . ! % ; ! − > ≤ ∀ ≥ "
CompML 概収束(Converges almost surely) 定義.経験確率について # % ; ! →
→ ∞ = 1 となるとき, % (; ! )は()に概収束するという. 概収束は確率収束より強い: % ; ! $.&. () ⟹ % (; ! ) → ' ()
CompML 経験確率は真の確率に確率収束する (証明)インジケータ関数( ()はBernoulli過程とみなせる: ( = 1 = 従って,Chernoffの不等式から !
% ; ! − () > ≤ 2 exp −2) が得られる.従って, → ∞で ! % ; ! − () > → 0であるので, % (; ! )は()に確率収束することが証明された. □ 実はもっと強く,経験確率は真の確率に概収束する.
CompML UCEP; Uniform Convergence of Empirical Probabilities 単一のではなく,その集合 ⊂ を考える.
定義.あるについて, ! sup (∈ % − () > → 0 ( → 0) が成り立つとき,はUCEP propertyを持つという.
CompML ASCEP; Almost Sure Convergence of Empirical Probabilities 定義.あるについて, #
sup (∈ % ! − () → 0 → ∞ = 1 が成り立つとき,はASCEP propertyを持つという.
CompML UCEM; Uniform Convergence of Empirical Means 確率変数についての関数の経験平均を以下のように書く: F ()
= 1 I ,-. ! , 定義.ある関数クラスℱについて, ! sup /∈ℱ F − > → 0 ( → 0) が成り立つとき,ℱはUCEM propertyを持つという.
CompML PAC Learning
CompML Learning Concepts • 未知の関数または概念を学習するとはどういうことか? • より強くいうと,汎化するとはどういうことか? • 学習理論における基本的なパーツは ◦
集合 ◦ 加法族 ◦ 可測空間(, )の確率測度のクラス ◦ conceptクラス ⊂ または関数クラスℱ
CompML Concept Learning 目的は,観測. , … , ! に基づいて未知のtarget concept
∈ を学習すること. • 各, について,それがに含まれるかどうかを1 (, )で表す(オラクル) • これらのペアから,写像の族(アルゴリズム)を考える: ! : × 0,1 ! → このアルゴリズムによって生成される仮説(hypothesis) ! = ! . , 1 . , … , ! , 1 !
CompML PAC学習可能;Probability Approximately Correct 定義.アルゴリズム! は以下を満たすとき精度でPAC学習可能であるという: sup 1∈2 ! 3
, ! > → 0 ( → 0) ここで3 は仮説とtarget conceptの間の何らかのエラーに当たる. 同値な表現:! は任意の, > 0について,ある" (, )が存在して以下を満た すときPAC学習可能: ! 3 , ! > ≤ , ∀ ≥ "
CompML まとめ • 統計的学習理論の準備として幾つかの基礎的な事項をまとめた • 確率収束,概収束 • PAC学習可能性
CompML 参考文献 • Shalev-Shwartz, S., Ben-David, S. (2014). Understanding Machine
Learning - From Theory to Algorithms.. Cambridge University Press. ISBN: 978-1-10-705713-5 • Mohri, Mehryar, Afshin Rostamizadeh, and Ameet Talwalkar. Foundations of machine learning. MIT press, 2018.