$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
論文紹介: soft-DTW
Search
takoika
October 18, 2017
Science
1
4.3k
論文紹介: soft-DTW
takoika
October 18, 2017
Tweet
Share
More Decks by takoika
See All by takoika
論文紹介: Communication-Efficient Learning of Deep Networks from Decentralized Data
takoika
0
2.6k
SKIP-GRAPH: LEARNING GRAPH EMBEDDINGS WITH AN ENCODER-DECODER MODEL
takoika
1
3.8k
論文紹介 Generative Adversarial Imitation Learning
takoika
5
3.4k
Other Decks in Science
See All in Science
機械学習 - K-means & 階層的クラスタリング
trycycle
PRO
0
1.2k
データベース15: ビッグデータ時代のデータベース
trycycle
PRO
0
400
baseballrによるMLBデータの抽出と階層ベイズモデルによる打率の推定 / TokyoR118
dropout009
2
640
Performance Evaluation and Ranking of Drivers in Multiple Motorsports Using Massey’s Method
konakalab
0
130
動的トリートメント・レジームを推定するDynTxRegimeパッケージ
saltcooky12
0
240
データベース03: 関係データモデル
trycycle
PRO
1
320
機械学習 - SVM
trycycle
PRO
1
950
AIによる科学の加速: 各領域での革新と共創の未来
masayamoriofficial
0
320
データから見る勝敗の法則 / The principle of victory discovered by science (open lecture in NSSU)
konakalab
1
250
防災デジタル分野での官民共創の取り組み (1)防災DX官民共創をどう進めるか
ditccsugii
0
440
2025-05-31-pycon_italia
sofievl
0
120
NASの容量不足のお悩み解決!災害対策も兼ねた「Wasabi Cloud NAS」はここがスゴイ
climbteam
1
290
Featured
See All Featured
Claude Code どこまでも/ Claude Code Everywhere
nwiizo
61
47k
DevOps and Value Stream Thinking: Enabling flow, efficiency and business value
helenjbeal
1
68
Why Your Marketing Sucks and What You Can Do About It - Sophie Logan
marketingsoph
0
45
Documentation Writing (for coders)
carmenintech
77
5.2k
Visualizing Your Data: Incorporating Mongo into Loggly Infrastructure
mongodb
48
9.8k
Six Lessons from altMBA
skipperchong
29
4.1k
職位にかかわらず全員がリーダーシップを発揮するチーム作り / Building a team where everyone can demonstrate leadership regardless of position
madoxten
51
42k
[SF Ruby Conf 2025] Rails X
palkan
0
560
Why You Should Never Use an ORM
jnunemaker
PRO
61
9.7k
SEO Brein meetup: CTRL+C is not how to scale international SEO
lindahogenes
0
2.2k
The innovator’s Mindset - Leading Through an Era of Exponential Change - McGill University 2025
jdejongh
PRO
1
69
Google's AI Overviews - The New Search
badams
0
870
Transcript
Soft-DTW: a Differentiable Loss Function for Time-Series Marco Cuturi and
Mathieu Blondel presenter: Takeshi Oura
アジェンダ • Soft-DTW: a Differentiable Loss Function for Time-Series Marco
Cuturi and Mathieu Blondel • DTW(dynamic time warping)とは • 2つの時系列を⽐較する指標(時系列間の差、違い) • 時系列の⻑さの違い、伸び、縮みを吸収する • 時系列予測のロス関数として使⽤できる • soft-DTW • 微分可能なDTW • 勾配計算アルゴリズムの提案 • 評価 • 複数時系列の平均 • k-means • 時系列識別問題 • 時系列予測
DTW • ⻑さn,mの2つの時系列 " , {" } • 誤差関数 ("
, ) ) • すべての時刻の誤差ペア ∆= (" , " ) ",) • A: アライメント⾏列(どの時刻ペ アを結びつけるかを表現) ",) = 1 ∶ とを対応付ける ",) = 0 ∶ とは対応付けない • = min 9 (, ∆) : DTWは, ∆の内積、最⼩の誤差 https://www.psb.ugent.be/cbd/papers/gentxwarper/ DTWalgorithm.htm) (https://izbicki.me/blog/converting-images-into-time- series-for-data-mining.html,
DTWのフォワード計算 • ()
soft-DTW • DTW: = min 9 (, ∆) • soft-DTW:
= = > @(9,A)/= 9 • ⟶ 0:DTWに対応(最適Aのみの寄与) • DTWと同様に計算可能(()) min ("@H,) , ",)@H , "@H,)@H )を−log (@MNOP,Q/= + @MN,QOP/= + @MNOP,QOP/=)にす ればよい
soft-DTWの勾配計算(バックワード) • T = U∆ UT V • ",) =
UMX,Y UMN,Q • いかにUMX,Y UMN,Q を計算するか? アイデア: Z,[ (DTWの値)の偏微分は(i-1,j),(i,j-1),(i-1,j-1)のみに依存 • ",) は上式で再帰的に計算 • ",) = " , " + min = {"@H,) , ",)@H , "@H,)@H } から上式右辺の微分は計算可能
soft-DTWの勾配計算(バックワード) • () フォワード バックワード
soft-DTWの評価 • 仮説: 直接DTWを最⼩化するよりsoft-DTWを最⼩化するほうが (DTWを)最⼩化するうえで優れている • soft-DTWの性質 • = 0:
⾮凸関数(最適化の際ローカルミニマムにつかまる) • ⟶ ∞: 凸関数に近付く • による凸緩和でより最適化されるか? • ⽐較⼿法 • DBA: GAと局所最適化を交互に使⽤しDTWを直接最適化(Patitjean et. al. 2011) • 劣勾配法: 劣勾配でDTWを最適化 • データセット • UCR(University of California, Riverside) time series
複数時系列の平均 • タスク: (⻑さが違う)複数時系列データ{" }の平均 (最適化問題として定式化) min T > "
" (, " ) " • " : あらかじめ" : 時系列の⻑さ( ∝ " なので正規化として) • 与えられる重み • 評価: soft-DTWで最⼩化しDTWの値で⽐較 • 結果: ⟶ 0でDTWに漸近 性能もよくなる soft-DTWがより最適 なサンプルの割合
k-means • 距離としてDTW(soft-DTW)を⽤いたk-means soft-DTWがより最適 なサンプルの割合
時系列の識別問題 • はチューニング⽤データセットで選択 • 75%のサンプルでDBAとsoft-DTWの精度が同じ直線より上 → soft-DTWがDBAを上回る精度 各プロット: サンプル x軸:
DBAでのAccuracy y軸: soft-DTWでのAccuracy
時系列予測 • インプット: = 1, . . , まで •
アウトプット(予測): = + 1, . . , + • c : パラメータで指定される関数 • ロス関数: min c ∑ (c " H,..,V , " VfH,..,VfZ) " • : サンプルインデックス • 実験: • 時系列の60%,40%: インプット、アウトプット • MLPで評価 (RNNも実験したがMLPより向上しなかった)
まとめ • 微分可能なDTWとその計算アルゴリズムの提案 • フォワード、バックワード: () • 凸緩和することで、解きやすい最適化関数のクラスにできる • DTWを最適化する複数のベンチマーク:
• soft-DTWを⽤い勾配法での評価 • DTWを直接最適化する他アルゴリズムに対する優位性を⽰した