Upgrade to Pro — share decks privately, control downloads, hide ads and more …

金研究室 勉強会 『バックプロパゲーションと勾配消失問題』

winnie279
August 12, 2021

金研究室 勉強会 『バックプロパゲーションと勾配消失問題』

バックプロパゲーションと勾配消失問題, 中村勇士, 2021

winnie279

August 12, 2021
Tweet

More Decks by winnie279

Other Decks in Science

Transcript

  1. 単純パーセプトロン
 x 1
 x 2
 x 3
 x 4
 x

    5
 y 
 モデル化
 w i :x i がどのくらい重要か(重み) 
 補正項
 (バイアス)
 ニューロン
 
 ステップ関数
 単純
 パーセプトロン
 
 シグモイド関数

  2. 最適化
 • 重みを変えると誤差は 
 どうなるか?
 
 • グラフ
 ◦ 重み↓

    誤差↓
 ⇒ 重みを減らす
 ◦ 重み↑ 誤差↓
 ⇒ 重みを増やす
 
 • 傾きを調べればよい 

  3. y 1
 y 2
 x 31
 x 32
 x 33


    x 34
 x 21
 x 22
 x 23
 x 24
 x 11
 x 12
 x 13
 y 1
 y 2
 x 31
 x 32
 x 33
 x 34
 x 21
 x 22
 x 23
 x 24
 x 11
 x 12
 x 13
 Forward propagation
 Forward propagation 
 最初の重みはランダム 
 → 計算した出力と正解には誤差がある 

  4. x 31
 x 32
 x 33
 x 34
 y 1


    y 2
 x 31
 x 32
 x 33
 x 34
 x 21
 x 22
 x 23
 x 24
 x 21
 x 22
 x 23
 x 24
 x 11
 x 12
 x 13
 x 11
 x 12
 x 13
 y 1
 y 2
 Back propagation(誤差逆伝播法)
 Back propagation

  5. y 1
 y 2
 x 31
 x 32
 x 33


    x 34
 x 21
 x 22
 x 23
 x 24
 x 11
 x 12
 x 13
 Forward propagation 
 Back propagation
 ディープニューラルネットワークのまとめ

  6. 勾配消失問題
 
 
 • 傾きがほぼ0になり学習が 
 進まなくなる
 → 学習は終了していない 


    
 • 層が多いほど発生しやすい 
 
 • inputに近いほど発生しやすい 

  7. • Batch Normalization 
 ◦ 各バッチを正規化
 (バッチ:グループ分けされたデータ)
 ◦ 平均0, 分散1にする


    
 • メリット
 ◦ 学習率を上げられる
 → 勾配が小さくても学習できる
 ◦ 過学習を防ぐ
 → 従来の方法より高速
 勾配消失問題への対処