Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
勾配ブースティングと決定木の話 / gradient boosting and decisio...
Search
kaityo256
PRO
April 23, 2026
Education
36
1
Share
勾配ブースティングと決定木の話 / gradient boosting and decision trees
kaityo256
PRO
April 23, 2026
More Decks by kaityo256
See All by kaityo256
GNU Makeの使い方 / How to use GNU Make
kaityo256
PRO
16
5.6k
この講義について / 00-setup
kaityo256
PRO
2
320
GitHubによるWebアプリケーションのデプロイ / 07-github-deploy
kaityo256
PRO
1
240
演習:Gitの基本操作 / 04-git-basic
kaityo256
PRO
0
440
演習:Gitの応用操作 / 05-git-advanced
kaityo256
PRO
0
260
演習:GitHubの基本操作 / 06-github-basic
kaityo256
PRO
0
270
バージョン管理とは / 01-a-vcs
kaityo256
PRO
1
300
Gitの仕組みと用語 / 01-b-term
kaityo256
PRO
0
300
計算物理におけるGitの使い方 / 01-c-compphys
kaityo256
PRO
2
570
Other Decks in Education
See All in Education
Why the humanities may be your best career bet
figarospeech
0
150
Human Perception and Colour Theory - Lecture 2 - Information Visualisation (4019538FNR)
signer
PRO
0
3.1k
Information Architectures - Lecture 2 - Next Generation User Interfaces (4018166FNR)
signer
PRO
1
2k
小さなまちで始める デジタル創作の居場所〜すべての子どもが創造的に未来を描ける社会へ〜
codeforeveryone
0
410
「機械学習と因果推論」入門① 因果効果とは
masakat0
0
920
2026年度春学期 統計学 第2回 統計資料の収集と読み方 (2026. 4. 16)
akiraasano
PRO
0
130
Padlet opetuksessa
matleenalaakso
12
15k
Introduction - Lecture 1 - Advanced Topics in Big Data (4023256FNR)
signer
PRO
2
2.3k
事業紹介資料(トレーナー養成講座)
kentaro1981
0
150
0415
cbtlibrary
0
120
「機械学習と因果推論」入門 ② 回帰分析から因果分析へ
masakat0
0
560
Analysis and Validation - Lecture 4 - Information Visualisation (4019538FNR)
signer
PRO
0
2.6k
Featured
See All Featured
The Invisible Side of Design
smashingmag
302
51k
Primal Persuasion: How to Engage the Brain for Learning That Lasts
tmiket
0
320
Measuring & Analyzing Core Web Vitals
bluesmoon
9
810
Intergalactic Javascript Robots from Outer Space
tanoku
273
27k
Easily Structure & Communicate Ideas using Wireframe
afnizarnur
194
17k
Hiding What from Whom? A Critical Review of the History of Programming languages for Music
tomoyanonymous
2
730
Docker and Python
trallard
47
3.8k
The Power of CSS Pseudo Elements
geoffreycrofte
82
6.2k
Conquering PDFs: document understanding beyond plain text
inesmontani
PRO
4
2.6k
The Limits of Empathy - UXLibs8
cassininazir
1
290
sira's awesome portfolio website redesign presentation
elsirapls
0
210
Pawsitive SEO: Lessons from My Dog (and Many Mistakes) on Thriving as a Consultant in the Age of AI
davidcarrasco
0
110
Transcript
1 25 2026年4月23日 研究室ミーティング 勾配ブースティングと決定木の話 慶應義塾大学理工学部物理情報工学科 渡辺
2 25 LightGBMを理解したい • LightGBMはマイクロソフトが開発した決定木 ベースの勾配ブースティングのフレームワーク • 勾配ブースティングとは、ブースティングの一種 • ブースティングとはアンサンブル学習の一種
アンサンブル学習とは? 決定木とは?
3 25 アンサンブル学習 「弱い」モデルを組み合わせて「強い」モデルを作る Bagging Input Output Boosting Input Output
※並列つなぎのようなもの ※直列つなぎのようなもの
4 25 Bagging (1/3) 不正確な時計しか手に入らないとする
5 25 Bagging (2/3) 不正確な時計をみんなでチェックして平均したら 正確な時間がわかる(かもしれない)
6 25 Bagging(3/3) (まとめて見ると)強いモデル 多数決や平均 弱いモデル より信頼できる出力 不正確な出力
7 25 ブースティング (1/3) データ 二つのクラスに分類したい
8 25 ブースティング (2/3) 誤って分類されたデータ
9 25 ブースティング (3/3) 誤って分類されたデータの重みを大きくする ・・・ 前のモデルの出力を見て、次のモデルが出力を改善していく 前のモデルが間違えたデー タを間違いにくくなる
10 25 勾配ブースティング (1/4) {𝑥𝑖 , 𝑦𝑖 } 𝑦𝑖 =
𝑓 𝑥𝑖 データセット 以下を満たす関数を作りたい 表現力が低い関数を組み合わせて表現力が高い関数を作る 𝑓 𝑥 ~ ሚ 𝑓𝐿 𝑥 = 𝑘=1 𝐿 𝑔𝑘 (𝑥) {𝑥𝑖 , 𝑦𝑖 } 𝑔1 (𝑥) {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓1 𝑥 } 𝑔2 (𝑥) 𝑔3 (𝑥) ・・・・ {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓2 𝑥 } レベル1関数の残差を学習 レベル1関数を学習 レベル2関数の残差を学習
11 25 勾配ブースティング (2/4) {𝑥𝑖 , 𝑦𝑖 } データセット ሚ
𝑓1 𝑥 = 𝑔1 (𝑥) 弱いモデル(レベル1) 𝐶 = 𝑖 𝑦𝑖 − 𝑔1 𝑥𝑖 2 平均自乗誤差を最小化 このデータを ステップ関数の和で表現
12 25 勾配ブースティング (3/4) レベル1のフィッティング結果 レベル1残差 𝐶 = 𝑖
𝑟𝑖 − ሚ 𝑓1 𝑥𝑖 2 𝑔2 (𝑥) をレベル1残差を減らすよう訓練 {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓1 𝑥 }
13 25 勾配ブースティング (4/4) レベル15関数による近似 ሚ 𝑓15 𝑥 モデルを繋いで誤差を減らし、全体として精度を高める
14 25 勾配と残差 (1/2) 𝑦𝑖 = 𝑓 𝑥𝑖 ሚ 𝑓𝐿
(𝑥) = 𝑘=1 𝐿 𝑔𝑘 (𝑥|𝜃𝑘 ) 目的関数 レベルL近似 (𝑔1 (𝑥)から𝑔𝐿 (𝑥)まで使った近似関数) 𝐶𝐿 ( 𝑦𝑖 , ሚ 𝑓𝐿 (𝑥)) レベルLにおけるコスト関数 − ቤ 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥 レベルLにおけるコスト関数の負の勾配を 目的関数として𝑔𝐿+1 学習させる {𝑔0 , 𝑔1 , ⋯ , 𝑔𝐿 } → 𝑔𝐿+1 ブースティング 勾配に関する − ቤ 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥
15 25 勾配と残差 (2/2) 𝐶𝐿 = 𝑖 1 2
𝑦𝑖 − ሚ 𝑓𝐿 𝑥𝑖 2 コスト関数として自乗誤差の和を採用すると − 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥𝑖 = 𝑦𝑖 − ሚ 𝑓𝐿 𝑥𝑖 コスト関数の負の勾配が残差に一致する 残差を目的関数としたブースティングは 勾配ブースティングの特別な場合
16 25 決定木 決定木:木構造を使った予測モデル Yes No Yes No 卵を生むか? 恒温動物か?
哺乳類 鳥類 ・・・ ※この分類例がいい加減なのは許して
17 25 決定木による回帰 (1/2) • 𝑥1 : 最寄り駅までの時間(徒歩𝑥1 分) •
𝑥2 : 部屋の広さ(𝑥2 𝑚2) 特徴量 • 𝑦: 妥当な家賃 目的変数 与えられた条件から「相場」を知りたい (𝑥1 , 𝑥2 ) → 𝑦
18 25 決定木による回帰 (2/2) 𝑥1 > 𝜃1 𝑥2 > 𝜃2
𝑥2 > 𝜃3 Yes No Yes No Yes No 𝑦1 𝑦2 𝑦3 𝑦4 𝑥1 𝑥2 𝑦 決定木 ニューラルネットワーク 決定木は解釈しやすい 駅からどれくらい遠いか? 部屋はどれくらいの広さか? ノードの役割が 分かりづらい
19 25 決定木による分類 Class A: 円の内部 𝑥2 + 𝑦2 ≤
𝑟2 Class B: 円の外部 𝑥2 + 𝑦2 > 𝑟2 線形な不等式(弱いモデル)だけを使って上記の分類問題を解きたい 𝑥 𝑦 𝑥 > 𝑥𝑐 , 𝑦 > 𝑦𝑐 (𝑥𝑖 , 𝑦𝑖 )
20 25 分類結果: 深さ1 予測結果 𝑥 < −0.91 決定木
21 25 分類結果: 深さ2 𝑥 < −0.91 𝑥 < −0.97
𝑥 < 0.88 予測結果 決定木
22 25 分類結果: 深さ3 予測結果 決定木
23 25 分類結果: 深さ5 (1/2) 予測結果
24 25 分類結果: 深さ5 (2/2) 決定木 展開しても効果が薄い ノードは展開しない
25 25 まとめ • アンサンブル学習とは、弱いモデルを複数組み合わ せて強いモデルを作る手法 • ブースティングとはアンサンブル学習の一種であり、 弱いモデルを直列に繋いで強いモデルを作る手法 •
勾配ブースティングとは、一つ前の近似によるコス ト関数の負の勾配を次のモデルに学習させることで 全体のロスを下げる方法 (コスト関数として平均自乗誤差を採用すると前のモ デルの残差を学習させることに帰着) • 決定木とは単純な条件分岐を再帰的に繰り返すこと で分類や回帰を行う手法