Slide 1

Slide 1 text

確率的勾配法のはなし 2019/04/17 Kaggle もくもくかい @nyker_goto

Slide 2

Slide 2 text

じこしょうかい @nyker_goto (twitter) 京都大学院, 最適化数理 (修論は確率的勾配法関連) 零細ベンチャー Atmaでデータサイエンティスト (新卒二年目) 人大募集中です!!! 今日は確率的勾配法の歴史と最近の論文 Adabound を ざっくり紹介します 2

Slide 3

Slide 3 text

はじめにおことわり このスライドの数式は若干適当です 3

Slide 4

Slide 4 text

なんで適当か ● 数式追いかけてもあんまりおもしろくない ○ 正直あまり本質的でもなかったり(変形すればいいだけなので ○ なので収束性とかの込み入った話はしないです ● SGD の「ノリ」をちょっとでも知ってほしいという気持です ○ SGD は楽しいのです 以上のねらいのため, 出来る限り一般化を避けた表記に変えています。 そのため論文の数式よりも具体的になっていて表記が若干違います。 4

Slide 5

Slide 5 text

早速ですが Deep の optimizer って 何使ってますか !? 5

Slide 6

Slide 6 text

Optimizer なにつかってますか !? ● SGD ○ Nesterov の加速法 ○ Momentum ● Adagrad ● RMSProp ● Adadelta ● Adam ● Adabound (NEW!) … 僕は SGD + Nesterov + Momentum (0.8) とかが好きです 6 図1. 勝手にとってきた Nesterov 先生

Slide 7

Slide 7 text

しんぷるなSGD t ステップ目で全体のうちひとつのデータの勾配 g を使って更新。たんじゅん。 Gradient Descent (最急降下法) だと全データ N 使うのがちがうとこ SGD (Stochastic Gradient Descent ちなみに: Gradient Descent 7

Slide 8

Slide 8 text

ちょっと一般化 今後の議論のため天下り的にちょっと一般化します。 SGD は毎回勾配(やそれに似た方向) m に対してあるステップサイズと補正ベクトル Vt をかけたような動きをすりゃいいので… と表せます。これを基本形と呼ぶことにします (V と m はアダマール積) 8

Slide 9

Slide 9 text

SGD再掲 この基本形で SGD を書き直すと以下のような感じ。 基本形 SGD 9 ● SGD は学習率をいじると収束が早いことが実験的に知られている ○ 最初大きくあとで小さくとかがポピュラー ● できれば人がいじらずに勝手に良い学習率で更新してほしい

Slide 10

Slide 10 text

適合的 (adaptive) なアルゴリズム ● Adagrad (2010) ● ADAM (2015) ● Adabound (2019) 10

Slide 11

Slide 11 text

Q. 適合的 (adaptive) って何? 11

Slide 12

Slide 12 text

A. いい感じに学習率(や勾配)を 変えてくれるような方法のこと 12

Slide 13

Slide 13 text

Adagrad (2010) Adaptive Subgradient Methods for Online Learning and Stochastic Optimization (2010) 発想 ● 学習率がすべての要素で同じなのは不自然なのでは? ○ 毎回大きな勾配を持っているような要素ではあまり大きな学習率をとりたくない ○ 反対にほとんど毎回ゼロの勾配を持つものはたまに勾配があるとき大きく更新し たい ● 要素ごとにいい感じの学習率で更新させたい 13

Slide 14

Slide 14 text

Adagrad (2010) うごく方向 m は SGD と同じ SGD のときとの 差分は Vt にあり 過去の勾配の二乗を足したもの平均値で割り算 ● 過去に大きな勾配を持っている要素はステップ サイズが小さくなる。 ● 要素ごとにいい感じの lr を選べる。 基本形 Adagrad 14 [note] 実は Vt は BFGS などの準ニュートン法的な発想で導入 されていたりします

Slide 15

Slide 15 text

Adagrad の問題点 ● よーく V を見ると過去の値すべての平均をとっ ている ● 一度とても大きい勾配に遭遇すると再度 V が 小さくなる (= lr が大きくなる)ことはなかなか無 い ○ Deep のような非凸関数だと局所解に捕 まったりする。そのときは step size を大 きくして抜けだしたい。けどできない。 基本形 Adagrad 15

Slide 16

Slide 16 text

みんなだいすき ADAM 先生 (2015) 16 発想 ● V の計算を指数で重み付けするので最近の勾 配が小さいと大きい lr を取れる ● 勾配も過去の情報も使うようにしたらいいん じゃない? (Momentum的な発想) ● 単に足して平均取るんじゃなくてついでに期待 値でも一致するよう 1- β を掛け算しとくといい のでは?

Slide 17

Slide 17 text

ADAM の問題点 ● 実は どんな lr をとったとしても, 凸な問題で収束しないような場合があります(SGD だと収束します)。 ○ ニューラルネットワークは非凸関数なので直接的には影響しませんが 解のごく近傍では凸に近似できるのでちょっと気持ちがわるい ○ Adabound 論文中では学習が進んだ終盤で SGD にくらべ adam の性能が わるくなるのはこのためではないか? と指摘されています 要するに最初は adam 的な更新が良いけれど学習終盤(解近傍)の挙動は微妙 むしろ適合的でない SGD のほうが理論的にも良い (余計なことしないほうが良い) 17

Slide 18

Slide 18 text

じゃあ ADAM から SGD にかわるようなアルゴリズムに すればよくない? 18

Slide 19

Slide 19 text

Adabound (NEW! 2019) ● V, m (補正項と方向) は adam と一緒 ● 違うのは学習率を Clip しているとこ ○ 最大最小を決めることで極端な学習率に ならなくなる ○ 最大最小を特定の値に収束させるような 関数を使えば学習終盤でスムーズに SGD に置きかわる (左の例なら lr=0.1 の SGD ) 最大最小の一例@論文中 19

Slide 20

Slide 20 text

数値実験 ● DenseNet121 で CIFAR-10 ● 強いよね。序盤、中盤、終盤、隙がない。 (終盤で SGD Momentum に追いつかれているものの序盤は圧倒的) 20

Slide 21

Slide 21 text

まとめ ● 適合的な手法の発想はどれも似ている。割とシンプル。 ● Adabound は SGD と Adam のいいとこ取り。これから流行りそう 21

Slide 22

Slide 22 text

参考文献 ● Duchi, John and Hazan, Elad and Singer, Yoram / Adaptive Subgradient Methods for Online Learning and Stochastic Optimization. https://dl.acm.org/citation.cfm?id=2021068 adagrad の論文。結構最適化よりなのでむずい。 ● Sebastian Ruder. An overview of gradient descent optimization algorithms. https://arxiv.org/abs/1609.04747 勾配法とか確率的勾配法のサーベイ。わかりよい。 ● Liangchen Luo, Yuanhao Xiong, Yan Liu, Xu Sun. Adaptive Gradient Methods with Dynamic Bound of Learning Rate. https://openreview.net/forum?id=Bkg3g2R9FX adabound 論文 22