Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Stochastic Gradient Boostingについて
Search
Shinichi Takayanagi
January 27, 2016
Research
2.9k
3
Share
Stochastic Gradient Boostingについて
社内の論文読み会資料
Shinichi Takayanagi
January 27, 2016
More Decks by Shinichi Takayanagi
See All by Shinichi Takayanagi
論文紹介「Evaluation gaps in machine learning practice」と、効果検証入門に関する昔話
stakaya
0
1.2k
バイブコーディングの正体——AIエージェントはソフトウェア開発を変えるか?
stakaya
5
1.7k
[NeurIPS 2023 論文読み会] Wasserstein Quantum Monte Carlo
stakaya
0
590
[KDD2021 論文読み会] ControlBurn: Feature Selection by Sparse Forests
stakaya
2
2k
[ICML2021 論文読み会] Mandoline: Model Evaluation under Distribution Shift
stakaya
0
2.1k
[情報検索/推薦 各社合同 論文読み祭 #1] KDD ‘20 "Embedding-based Retrieval in Facebook Search"
stakaya
2
660
【2020年新人研修資料】ナウでヤングなPython開発入門
stakaya
29
22k
論文読んだ「Simple and Deterministic Matrix Sketching」
stakaya
1
1.2k
Quick Introduction to Approximate Bayesian Computation (ABC) with R"
stakaya
3
380
Other Decks in Research
See All in Research
[Devfest Incheon 2025] 모두를 위한 친절한 언어모델(LLM) 학습 가이드
beomi
2
1.5k
Tiaccoon: Unified Access Control with Multiple Transports in Container Networks
hiroyaonoe
0
1.5k
生成AI による論文執筆サポート・ワークショップ 論文執筆・推敲編 / Generative AI-Assisted Paper Writing Support Workshop: Drafting and Revision Edition
ks91
PRO
0
190
Dual Quadric表現を用いた動的物体追跡とRGB-D・IMU制約の密結合によるオドメトリ推定
nanoshimarobot
0
340
The mathematics of transformers
gpeyre
0
230
Collective Predictive Coding and World Models in LLMs: A System 0/1/2/3 Perspective on Hierarchical Physical AI (IEEE SII 2026 Plenary Talk)
tanichu
1
370
CyberAgent AI Lab研修 / Social Implementation Anti-Patterns in AI Lab
chck
6
4.3k
討議:RACDA設立30周年記念都市交通フォーラム2026
trafficbrain
0
810
コーディングエージェントとABNを再考
hf149
1
160
typst の使い方:言語学を研究する学生のために
gitomochang
0
380
2026年1月の生成AI領域の重要リリース&トピック解説
kajikent
0
970
東京大学工学部計数工学科、計数工学特別講義の説明資料
kikuzo
0
300
Featured
See All Featured
Bioeconomy Workshop: Dr. Julius Ecuru, Opportunities for a Bioeconomy in West Africa
akademiya2063
PRO
1
99
Navigating Team Friction
lara
192
16k
Building a Modern Day E-commerce SEO Strategy
aleyda
45
9k
The Web Performance Landscape in 2024 [PerfNow 2024]
tammyeverts
12
1.1k
Refactoring Trust on Your Teams (GOTO; Chicago 2020)
rmw
35
3.4k
Marketing to machines
jonoalderson
1
5.2k
I Don’t Have Time: Getting Over the Fear to Launch Your Podcast
jcasabona
34
2.7k
Self-Hosted WebAssembly Runtime for Runtime-Neutral Checkpoint/Restore in Edge–Cloud Continuum
chikuwait
0
500
The AI Search Optimization Roadmap by Aleyda Solis
aleyda
1
5.7k
Why You Should Never Use an ORM
jnunemaker
PRO
61
9.8k
Taking LLMs out of the black box: A practical guide to human-in-the-loop distillation
inesmontani
PRO
3
2.2k
Stewardship and Sustainability of Urban and Community Forests
pwiseman
0
190
Transcript
〜~論論⽂文輪輪読会〜~ Stochastic Gradient Boosting Jerome H. Friedman(1999) ⾼高柳柳慎⼀一
Whatʼ’s this? • 加法モデルの1つ – Gradient Boostingの拡張版 – モデルを学習させる際に”データをサンプリン グして使う(全部使わない)”というだけ • Gradient
Boostingの特徴 – モデル = 決定⽊木の⾜足しあげ – pseudoな誤差(損失関数の勾配)に対してモデ ルを当てはめる 2
まとめ • Stochastic Gradient Boosting = Gradient Boosting+標本サンプリング •
Gradient Boostingの特徴 – 最適化問題を⼆二段階に分けて解く • 第⼀一弾:勾配⽅方向になるような学習器を最適化計算 – データが有限なので厳密計算を諦めて近似 • 第⼆二弾:1を既存の学習器に追加する際の係数を最 適化 3
Gradient Boostingのモデル • モデルFはhという弱学習器の⾜足し上げ • 損失関数Ψを最⼩小化するように学習データ xから、βとhを決める 4
最適化計算 • 最適化はm=0から順に(stage-‐‑‒wise)決め ていく⽅方針を取る(これがいいという裏裏付 けはないっぽい) • F0を決めて、F1, F2, … FMと順に最適化
計算で決めていくということ 5
最適化計算のアイディア • 最適化計算を2ステップに分ける – aとβをばらばらにきめる • 第⼀一段階:勾配を学習器で近似(最適化) • 第⼆二段階:くっつけるときの係数を最適化 6
個々の学習器は回帰⽊木とする • 学習器 is 回帰⽊木 – 今までのaを{Rlm}と書いている – L個の終端ノードがある 7 1� 2…�
L� R1m R2m RLm 1:XΛͿͬ͜Ή 2:X͕Ϛον͢Δ RlmΛ୳͢ x͕RlmʹೖΔ yͷฏۉ
第⼀一段&第⼆二段の最適化 • 第⼀一段は普通にやれる • 第⼆二段は個々の終端ごとに最適化してOK – なぜならここの終端は独⽴立立/互いに素?なので – ∴並列列化できる! • これを今までの学習器に⾜足しこんで新しい 学習器とする
8
Gradient Boostingのアルゴリズム • アルゴリズムのまとめ 9
Stochastic Gradient Boostingのアルゴリズム • アルゴリズムのまとめ – データを全部使わない • (20%-‐‑‒50%程度度の使⽤用がふつうらしい) 10
なぜStochasticにするとよいのか? • 論論⽂文を読む限り・・・ – サンプリングで学習に使うデータが異異なる – 学習器間の相関が減る – ⼀一⽅方 • 全体の分散≒sum(個々の分散) + sum(相関) と書ける
– 相関が減るおかげで全体の分散が減る – Bias-‐‑‒Variance的に考えて汎化性能があがる 11