Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
機械学習と数理最適化の融合-文脈付き確率的最短路を例として-
Search
MIKIO KUBO
April 30, 2024
Research
2
870
機械学習と数理最適化の融合-文脈付き確率的最短路を例として-
機械学習と数理最適化の融合-文脈付き確率的最短路を例として-
MIKIO KUBO
April 30, 2024
Tweet
Share
More Decks by MIKIO KUBO
See All by MIKIO KUBO
最適化ソリューションにおける モデリングツールAMPLの活用
mickey_kubo
0
23
YAML入門 - 歴史と基本的な使い方を学ぼう
mickey_kubo
0
45
Google Agent Development Kit (ADK) 入門 🚀
mickey_kubo
2
910
Google ADK実用例:Travel Concierge徹底解説
mickey_kubo
0
330
最適化と機械学習による問題解決
mickey_kubo
0
130
Agentic AIとMCPを利用したサービス作成入門
mickey_kubo
0
200
最適決定木を用いた処方的価格最適化
mickey_kubo
4
1.6k
大規模な2値整数計画問題に対する 効率的な重み付き局所探索法
mickey_kubo
1
200
時系列データに対する解釈可能な 決定木クラスタリング
mickey_kubo
2
630
Other Decks in Research
See All in Research
[輪講] SigLIP 2: Multilingual Vision-Language Encoders with Improved Semantic Understanding, Localization, and Dense Features
nk35jk
2
420
ノンパラメトリック分布表現を用いた位置尤度場周辺化によるRTK-GNSSの整数アンビギュイティ推定
aoki_nosse
0
320
EarthMarker: A Visual Prompting Multimodal Large Language Model for Remote Sensing
satai
3
280
作業記憶の発達的特性が言語獲得の臨界期を形成する(NLP2025)
chemical_tree
2
590
SatCLIP: Global, General-Purpose Location Embeddings with Satellite Imagery
satai
3
200
SSII2025 [SS1] レンズレスカメラ
ssii
PRO
2
900
生成的推薦の人気バイアスの分析:暗記の観点から / JSAI2025
upura
0
160
Principled AI ~深層学習時代における課題解決の方法論~
taniai
3
1.2k
線形判別分析のPU学習による朝日歌壇短歌の分析
masakat0
0
130
(NULLCON Goa 2025)Windows Keylogger Detection: Targeting Past and Present Keylogging Techniques
asuna_jp
1
510
rtrec@dbem6
myui
6
840
CHaserWeb:ブラウザ上で動作する対戦型プログラミング学習環境の提案と評価 / i2025-inoue
yumulab
0
190
Featured
See All Featured
Mobile First: as difficult as doing things right
swwweet
223
9.6k
The Invisible Side of Design
smashingmag
299
51k
GraphQLの誤解/rethinking-graphql
sonatard
71
11k
The Art of Delivering Value - GDevCon NA Keynote
reverentgeek
15
1.5k
Why Our Code Smells
bkeepers
PRO
337
57k
Templates, Plugins, & Blocks: Oh My! Creating the theme that thinks of everything
marktimemedia
31
2.4k
[RailsConf 2023] Rails as a piece of cake
palkan
55
5.6k
Rails Girls Zürich Keynote
gr2m
94
14k
Scaling GitHub
holman
459
140k
Code Review Best Practice
trishagee
68
18k
Dealing with People You Can't Stand - Big Design 2015
cassininazir
367
26k
Facilitating Awesome Meetings
lara
54
6.4k
Transcript
機械学習と最適化の融合 ⽂脈付き確率的最適化 と最短路を例として Mikio Kubo
確率的最短路問題 あなたは家(始点s)から⼤学(終点t)まで⾞で通勤している.⾼ 速を使う道 (s,1), (2,t)を使うと最短2時間で着くが,混雑するときに は6時間かかる.授業開始までTmax (=5) 時間の余裕があるが,でき るだけ早く着きたい.どのような経路を選択すれば良いだろうか? 移動時間
s t 1 2 1 3.5 1.5 確率 ½ で 3 確率 ½ で 1 確率 ½ で 3 確率 ½ で 1
期待値による最適化 パス s => 1 => t が最適 (期待値は4) s
t 1 2 1 3.5 1.5 期待値2 確率 ½ で 3 確率 ½ で 1 期待値 2 確率 ½ で 3 確率 ½ で 1 枝 の移動時間が独⽴と仮定 3+3 = 6 確率 ¼ 3+1 or 1+3 =4 確率 ½ 1+1 = 2 確率 ¼ 確率 ¼ で実⾏不能 (Tmax=5)
確率的最適化の解 パス s => 2 => t が最適 (期待値は 3.5
+ 1.5 = 5) s t 1 2 1 3.5 1.5 期待値2 確率 ½ で 3 確率 ½ で 1 期待値 2 確率 ½ で 3 確率 ½ で 1 Tmax=5のときの唯⼀の実⾏可能解
その他の解 パス s => 1=> 2 => t が最適 (期待値は
(5.5 + 3.5)/2 = 4.5) s t 1 2 1 3.5 1.5 期待値2 確率 ½ で 3 確率 ½ で 1 期待値 2 確率 ½ で 3 確率 ½ で 1 Tmax=5.5のときの最適解 枝 の移動時間が独⽴と仮定 3+1+1.5 = 5.5 確率 ½ 1+1+1.5 = 3.5 確率 ½ 確率 ½ で実⾏不能 (Tmax=5)
リコース解 事前にパスを決めておく即時決定 (here & now) でなく,途中の情報でパス を変えて良い待機決定(wait & see; リコース)
点1まで移動し,s=>1 の移動時間が1なら 1=> t,移動時間が3なら 1=>2=>t を選ぶ(期待値は (5.5 + 2)/2 = 3.75) s t 1 2 1 3.5 1.5 期待値2 確率 ½ で 3 確率 ½ で 1 期待値 2 確率 ½ で 3 確率 ½ で 1 枝の移動時間が同⼀と仮定 1+1 = 2 確率 ½ 3+1+1.5 = 5.5 確率 ½ Tmax=5.5のときの最適⽅策
⽂脈付き予測・最適化 過去の天気(context; ⽂脈)と移動時間のデータをもっている.天気予 報は当たっているとしたとき移動時間を予測し,それをもとに経路を選 択したい.(単に予測してから最適化は「期待値を最⼩化」と同じ.) s t 1 2 1
3.5 1.5 過去のデータ ☀ 1,1,1,3,1,1,… ☂ 3,3,1,3,3,1,… 過去のデータ ☀ 1,1,3,1,1,1,… ☂ 1,3,1,3,3,3,… ⽂脈 F = ☀ ☂ ̂ 𝑐 = 𝐸 𝑐 𝐹 ] F の条件下での移動費⽤ c の予測値 ☂ ̂ 𝑐 = 2.5 ☀ ̂ 𝑐 = 1.5
⽂脈付き予測・最適化 (1) 費⽤の実現値をもとに最適化した場合との差をロス関数として機械学習 (Smart Prediction-then-Optimize) 最適解オラクル 実現値 c が既知のときの最適値 𝑧∗
𝑐 = min "∈$ 𝑐%𝑥 ☀で実現値が移動時間 3 の場合 𝐿𝑂𝑆𝑆 ̂ 𝑐, 𝑐 = 𝑐!𝑥∗ - 𝑐 − 𝑧∗ 𝑐 = 3 + 3 − 3.5 + 1.5 = 1 SPOロス(⾮凸) 𝑥∗ s t 1 2 1 3.5 1.5 ☀ ̂ 𝑐 = 1.5 ☀ ̂ 𝑐 = 1.5 𝑥∗ ( 𝑐 s t 1 2 1 3.5 1.5 ☀ c = 3 ☀ c = 3 𝑥∗(𝑐)
⽂脈付き予測・最適化 (2) 𝐿𝑂𝑆𝑆# ̂ 𝑐, 𝑐 = max { $∈&
𝑐!𝑥 − 2 ̂ 𝑐!𝑥 } + 2 ̂ 𝑐!𝑥∗ 𝑐 − 𝑧∗ 𝑐 SPO+ロス(凸) SPOロスの上界 線形最適化 データ 解 機械学習 SPO+ロス F 𝐿𝑂𝑆𝑆! ̂ 𝑐, 𝑐 s t 1 2 1 3.5 1.5 ☀ ̂ 𝑐 = 1.5 ☀ ̂ 𝑐 = 1.5 𝑥∗ ( 𝑐 s t 1 2 1 3.5 1.5 ☀ c = 3 ☀ c = 3 𝑥∗(𝑐) = 0 + 2×5 − 5 = 5 (≥ 1)
⽂脈付き予測・ 確率的最適化 ⽂脈から予測し,シナリオ⽣成して確率的最適化 (Estimation-then-Optimize) 様々な確率的最適化の⼿法が使える(CVaR,確率制約,ロバスト) s t 1 2 1
3.5 1.5 ☀ s t 1 2 1 3.5 1.5 ☂