Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
勾配ブースティングと決定木の話 / gradient boosting and decisio...
Search
kaityo256
PRO
April 23, 2026
Education
1.1k
6
Share
勾配ブースティングと決定木の話 / gradient boosting and decision trees
kaityo256
PRO
April 23, 2026
More Decks by kaityo256
See All by kaityo256
GNU Makeの使い方 / How to use GNU Make
kaityo256
PRO
16
5.6k
この講義について / 00-setup
kaityo256
PRO
2
360
GitHubによるWebアプリケーションのデプロイ / 07-github-deploy
kaityo256
PRO
2
270
演習:Gitの基本操作 / 04-git-basic
kaityo256
PRO
1
480
演習:Gitの応用操作 / 05-git-advanced
kaityo256
PRO
1
280
演習:GitHubの基本操作 / 06-github-basic
kaityo256
PRO
1
310
バージョン管理とは / 01-a-vcs
kaityo256
PRO
1
320
Gitの仕組みと用語 / 01-b-term
kaityo256
PRO
1
350
計算物理におけるGitの使い方 / 01-c-compphys
kaityo256
PRO
2
610
Other Decks in Education
See All in Education
Managing Complexity: India’s Semiconductor Ambitions & New Industrial Policy
vyadav
0
130
Data Representation - Lecture 3 - Information Visualisation (4019538FNR)
signer
PRO
1
3k
[2026前期火5] 論理学(京都大学文学部 前期 第2回)「論理的な正しさはどこにあるのか」
yatabe
0
800
勝手にCULTIBASE で広げよう、探究の輪! - CULTIVAL 2026
hiroc_sk
1
170
Padlet opetuksessa
matleenalaakso
12
15k
コミュニティを通じた_キャリア設計のススメ_20260424.pdf
masakiokuda
0
240
理工学系 第1回大学院説明会2026|東京科学大学(Science Tokyo)
sciencetokyo
PRO
1
1.9k
教育現場から見た Ruby on Rails
yasslab
PRO
0
140
Interaction - Lecture 10 - Information Visualisation (4019538FNR)
signer
PRO
0
2.6k
Interactive Tabletops and Surfaces - Lecture 5 - Next Generation User Interfaces (4018166FNR)
signer
PRO
1
2.1k
モブ社員がモブエンジニアを名乗って得られたこと_20260413
masakiokuda
4
460
「機械学習と因果推論」入門 ③ 漸近効率な推定量と二重機械学習
masakat0
0
570
Featured
See All Featured
Hiding What from Whom? A Critical Review of the History of Programming languages for Music
tomoyanonymous
2
790
Being A Developer After 40
akosma
91
590k
Refactoring Trust on Your Teams (GOTO; Chicago 2020)
rmw
35
3.4k
Game over? The fight for quality and originality in the time of robots
wayneb77
1
170
Music & Morning Musume
bryan
47
7.2k
The World Runs on Bad Software
bkeepers
PRO
72
12k
Typedesign – Prime Four
hannesfritz
42
3k
The SEO Collaboration Effect
kristinabergwall1
1
440
Noah Learner - AI + Me: how we built a GSC Bulk Export data pipeline
techseoconnect
PRO
0
170
Primal Persuasion: How to Engage the Brain for Learning That Lasts
tmiket
0
330
Fashionably flexible responsive web design (full day workshop)
malarkey
408
66k
Agile Leadership in an Agile Organization
kimpetersen
PRO
0
140
Transcript
1 25 2026年4月23日 研究室ミーティング 勾配ブースティングと決定木の話 慶應義塾大学理工学部物理情報工学科 渡辺
2 25 LightGBMを理解したい • LightGBMはマイクロソフトが開発した決定木 ベースの勾配ブースティングのフレームワーク • 勾配ブースティングとは、ブースティングの一種 • ブースティングとはアンサンブル学習の一種
アンサンブル学習とは? 決定木とは?
3 25 アンサンブル学習 「弱い」モデルを組み合わせて「強い」モデルを作る Bagging Input Output Boosting Input Output
※並列つなぎのようなもの ※直列つなぎのようなもの
4 25 Bagging (1/3) 不正確な時計しか手に入らないとする
5 25 Bagging (2/3) 不正確な時計をみんなでチェックして平均したら 正確な時間がわかる(かもしれない)
6 25 Bagging(3/3) (まとめて見ると)強いモデル 多数決や平均 弱いモデル より信頼できる出力 不正確な出力
7 25 ブースティング (1/3) データ 二つのクラスに分類したい
8 25 ブースティング (2/3) 誤って分類されたデータ
9 25 ブースティング (3/3) 誤って分類されたデータの重みを大きくする ・・・ 前のモデルの出力を見て、次のモデルが出力を改善していく 前のモデルが間違えたデー タを間違いにくくなる
10 25 勾配ブースティング (1/4) {𝑥𝑖 , 𝑦𝑖 } 𝑦𝑖 =
𝑓 𝑥𝑖 データセット 以下を満たす関数を作りたい 表現力が低い関数を組み合わせて表現力が高い関数を作る 𝑓 𝑥 ~ ሚ 𝑓𝐿 𝑥 = 𝑘=1 𝐿 𝑔𝑘 (𝑥) {𝑥𝑖 , 𝑦𝑖 } 𝑔1 (𝑥) {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓1 𝑥 } 𝑔2 (𝑥) 𝑔3 (𝑥) ・・・・ {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓2 𝑥 } レベル1関数の残差を学習 レベル1関数を学習 レベル2関数の残差を学習
11 25 勾配ブースティング (2/4) {𝑥𝑖 , 𝑦𝑖 } データセット ሚ
𝑓1 𝑥 = 𝑔1 (𝑥) 弱いモデル(レベル1) 𝐶 = 𝑖 𝑦𝑖 − 𝑔1 𝑥𝑖 2 平均自乗誤差を最小化 このデータを ステップ関数の和で表現
12 25 勾配ブースティング (3/4) レベル1のフィッティング結果 レベル1残差 𝐶 = 𝑖
𝑟𝑖 − ሚ 𝑓1 𝑥𝑖 2 𝑔2 (𝑥) をレベル1残差を減らすよう訓練 {𝑥𝑖 , 𝑦𝑖 − ሚ 𝑓1 𝑥 }
13 25 勾配ブースティング (4/4) レベル15関数による近似 ሚ 𝑓15 𝑥 モデルを繋いで誤差を減らし、全体として精度を高める
14 25 勾配と残差 (1/2) 𝑦𝑖 = 𝑓 𝑥𝑖 ሚ 𝑓𝐿
(𝑥) = 𝑘=1 𝐿 𝑔𝑘 (𝑥|𝜃𝑘 ) 目的関数 レベルL近似 (𝑔1 (𝑥)から𝑔𝐿 (𝑥)まで使った近似関数) 𝐶𝐿 ( 𝑦𝑖 , ሚ 𝑓𝐿 (𝑥)) レベルLにおけるコスト関数 − ቤ 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥 レベルLにおけるコスト関数の負の勾配を 目的関数として𝑔𝐿+1 学習させる {𝑔0 , 𝑔1 , ⋯ , 𝑔𝐿 } → 𝑔𝐿+1 ブースティング 勾配に関する − ቤ 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥
15 25 勾配と残差 (2/2) 𝐶𝐿 = 𝑖 1 2
𝑦𝑖 − ሚ 𝑓𝐿 𝑥𝑖 2 コスト関数として自乗誤差の和を採用すると − 𝜕𝐶𝐿 𝜕 ሚ 𝑓𝐿 𝑥𝑖 = 𝑦𝑖 − ሚ 𝑓𝐿 𝑥𝑖 コスト関数の負の勾配が残差に一致する 残差を目的関数としたブースティングは 勾配ブースティングの特別な場合
16 25 決定木 決定木:木構造を使った予測モデル Yes No Yes No 卵を生むか? 恒温動物か?
哺乳類 鳥類 ・・・ ※この分類例がいい加減なのは許して
17 25 決定木による回帰 (1/2) • 𝑥1 : 最寄り駅までの時間(徒歩𝑥1 分) •
𝑥2 : 部屋の広さ(𝑥2 𝑚2) 特徴量 • 𝑦: 妥当な家賃 目的変数 与えられた条件から「相場」を知りたい (𝑥1 , 𝑥2 ) → 𝑦
18 25 決定木による回帰 (2/2) 𝑥1 > 𝜃1 𝑥2 > 𝜃2
𝑥2 > 𝜃3 Yes No Yes No Yes No 𝑦1 𝑦2 𝑦3 𝑦4 𝑥1 𝑥2 𝑦 決定木 ニューラルネットワーク 決定木は解釈しやすい 駅からどれくらい遠いか? 部屋はどれくらいの広さか? ノードの役割が 分かりづらい
19 25 決定木による分類 Class A: 円の内部 𝑥2 + 𝑦2 ≤
𝑟2 Class B: 円の外部 𝑥2 + 𝑦2 > 𝑟2 線形な不等式(弱いモデル)だけを使って上記の分類問題を解きたい 𝑥 𝑦 𝑥 > 𝑥𝑐 , 𝑦 > 𝑦𝑐 (𝑥𝑖 , 𝑦𝑖 )
20 25 分類結果: 深さ1 予測結果 𝑥 < −0.91 決定木
21 25 分類結果: 深さ2 𝑥 < −0.91 𝑥 < −0.97
𝑥 < 0.88 予測結果 決定木
22 25 分類結果: 深さ3 予測結果 決定木
23 25 分類結果: 深さ5 (1/2) 予測結果
24 25 分類結果: 深さ5 (2/2) 決定木 展開しても効果が薄い ノードは展開しない
25 25 まとめ • アンサンブル学習とは、弱いモデルを複数組み合わ せて強いモデルを作る手法 • ブースティングとはアンサンブル学習の一種であり、 弱いモデルを直列に繋いで強いモデルを作る手法 •
勾配ブースティングとは、一つ前の近似によるコス ト関数の負の勾配を次のモデルに学習させることで 全体のロスを下げる方法 (コスト関数として平均自乗誤差を採用すると前のモ デルの残差を学習させることに帰着) • 決定木とは単純な条件分岐を再帰的に繰り返すこと で分類や回帰を行う手法