Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
論文紹介: soft-DTW
Search
takoika
October 18, 2017
Science
4.6k
1
Share
論文紹介: soft-DTW
takoika
October 18, 2017
More Decks by takoika
See All by takoika
論文紹介: Communication-Efficient Learning of Deep Networks from Decentralized Data
takoika
0
2.6k
SKIP-GRAPH: LEARNING GRAPH EMBEDDINGS WITH AN ENCODER-DECODER MODEL
takoika
1
3.8k
論文紹介 Generative Adversarial Imitation Learning
takoika
5
3.4k
Other Decks in Science
See All in Science
生成AIと司法書士の未来.pdf
tagtag
PRO
0
110
シャボン玉の虹から原子も地震も重力も見える! 〜 物理の目「干渉縞」のすごい力 〜
syotasasaki593876
1
120
(2025) Balade en cyclotomie
mansuy
0
550
MATSUO Makiko
genomethica
0
130
コミュニティサイエンスの実践@日本認知科学会2025
hayataka88
0
150
コンピュータビジョンによるロボットの視覚と判断:宇宙空間での適応と課題
hf149
1
640
Fairfax County’s Tree Canopy: Examining the Effects of Land Development Regulations on Tree Canopy Conservation
pwiseman
1
100
Deep Space Network (abreviated)
tonyrice
0
130
AIに仕事を奪われる 最初の医師たちへ
ikora128
0
1.1k
PPIのみを用いたAIによる薬剤–遺伝子–疾患 相互作用の同定
tagtag
PRO
0
210
人生を変えた一冊「独学大全」のはなし / Self-study ENCYCLOPEDIA: The Book Which Change My Life #独学大全 #EM推し本
expajp
0
150
機械学習 - 授業概要
trycycle
PRO
0
470
Featured
See All Featured
Marketing Yourself as an Engineer | Alaka | Gurzu
gurzu
0
190
Designing for Performance
lara
611
70k
Hiding What from Whom? A Critical Review of the History of Programming languages for Music
tomoyanonymous
2
780
The AI Revolution Will Not Be Monopolized: How open-source beats economies of scale, even for LLMs
inesmontani
PRO
3
3.4k
Optimising Largest Contentful Paint
csswizardry
37
3.7k
YesSQL, Process and Tooling at Scale
rocio
174
15k
First, design no harm
axbom
PRO
2
1.2k
Color Theory Basics | Prateek | Gurzu
gurzu
0
300
Embracing the Ebb and Flow
colly
88
5k
ReactJS: Keep Simple. Everything can be a component!
pedronauck
666
130k
Beyond borders and beyond the search box: How to win the global "messy middle" with AI-driven SEO
davidcarrasco
3
120
The MySQL Ecosystem @ GitHub 2015
samlambert
251
13k
Transcript
Soft-DTW: a Differentiable Loss Function for Time-Series Marco Cuturi and
Mathieu Blondel presenter: Takeshi Oura
アジェンダ • Soft-DTW: a Differentiable Loss Function for Time-Series Marco
Cuturi and Mathieu Blondel • DTW(dynamic time warping)とは • 2つの時系列を⽐較する指標(時系列間の差、違い) • 時系列の⻑さの違い、伸び、縮みを吸収する • 時系列予測のロス関数として使⽤できる • soft-DTW • 微分可能なDTW • 勾配計算アルゴリズムの提案 • 評価 • 複数時系列の平均 • k-means • 時系列識別問題 • 時系列予測
DTW • ⻑さn,mの2つの時系列 " , {" } • 誤差関数 ("
, ) ) • すべての時刻の誤差ペア ∆= (" , " ) ",) • A: アライメント⾏列(どの時刻ペ アを結びつけるかを表現) ",) = 1 ∶ とを対応付ける ",) = 0 ∶ とは対応付けない • = min 9 (, ∆) : DTWは, ∆の内積、最⼩の誤差 https://www.psb.ugent.be/cbd/papers/gentxwarper/ DTWalgorithm.htm) (https://izbicki.me/blog/converting-images-into-time- series-for-data-mining.html,
DTWのフォワード計算 • ()
soft-DTW • DTW: = min 9 (, ∆) • soft-DTW:
= = > @(9,A)/= 9 • ⟶ 0:DTWに対応(最適Aのみの寄与) • DTWと同様に計算可能(()) min ("@H,) , ",)@H , "@H,)@H )を−log (@MNOP,Q/= + @MN,QOP/= + @MNOP,QOP/=)にす ればよい
soft-DTWの勾配計算(バックワード) • T = U∆ UT V • ",) =
UMX,Y UMN,Q • いかにUMX,Y UMN,Q を計算するか? アイデア: Z,[ (DTWの値)の偏微分は(i-1,j),(i,j-1),(i-1,j-1)のみに依存 • ",) は上式で再帰的に計算 • ",) = " , " + min = {"@H,) , ",)@H , "@H,)@H } から上式右辺の微分は計算可能
soft-DTWの勾配計算(バックワード) • () フォワード バックワード
soft-DTWの評価 • 仮説: 直接DTWを最⼩化するよりsoft-DTWを最⼩化するほうが (DTWを)最⼩化するうえで優れている • soft-DTWの性質 • = 0:
⾮凸関数(最適化の際ローカルミニマムにつかまる) • ⟶ ∞: 凸関数に近付く • による凸緩和でより最適化されるか? • ⽐較⼿法 • DBA: GAと局所最適化を交互に使⽤しDTWを直接最適化(Patitjean et. al. 2011) • 劣勾配法: 劣勾配でDTWを最適化 • データセット • UCR(University of California, Riverside) time series
複数時系列の平均 • タスク: (⻑さが違う)複数時系列データ{" }の平均 (最適化問題として定式化) min T > "
" (, " ) " • " : あらかじめ" : 時系列の⻑さ( ∝ " なので正規化として) • 与えられる重み • 評価: soft-DTWで最⼩化しDTWの値で⽐較 • 結果: ⟶ 0でDTWに漸近 性能もよくなる soft-DTWがより最適 なサンプルの割合
k-means • 距離としてDTW(soft-DTW)を⽤いたk-means soft-DTWがより最適 なサンプルの割合
時系列の識別問題 • はチューニング⽤データセットで選択 • 75%のサンプルでDBAとsoft-DTWの精度が同じ直線より上 → soft-DTWがDBAを上回る精度 各プロット: サンプル x軸:
DBAでのAccuracy y軸: soft-DTWでのAccuracy
時系列予測 • インプット: = 1, . . , まで •
アウトプット(予測): = + 1, . . , + • c : パラメータで指定される関数 • ロス関数: min c ∑ (c " H,..,V , " VfH,..,VfZ) " • : サンプルインデックス • 実験: • 時系列の60%,40%: インプット、アウトプット • MLPで評価 (RNNも実験したがMLPより向上しなかった)
まとめ • 微分可能なDTWとその計算アルゴリズムの提案 • フォワード、バックワード: () • 凸緩和することで、解きやすい最適化関数のクラスにできる • DTWを最適化する複数のベンチマーク:
• soft-DTWを⽤い勾配法での評価 • DTWを直接最適化する他アルゴリズムに対する優位性を⽰した