Upgrade to Pro — share decks privately, control downloads, hide ads and more …

金研究室 勉強会 『バックプロパゲーションと勾配消失問題』

Avatar for winnie279 winnie279
August 12, 2021

金研究室 勉強会 『バックプロパゲーションと勾配消失問題』

バックプロパゲーションと勾配消失問題, 中村勇士, 2021

Avatar for winnie279

winnie279

August 12, 2021
Tweet

More Decks by winnie279

Other Decks in Science

Transcript

  1. 単純パーセプトロン
 x 1
 x 2
 x 3
 x 4
 x

    5
 y 
 モデル化
 w i :x i がどのくらい重要か(重み) 
 補正項
 (バイアス)
 ニューロン
 
 ステップ関数
 単純
 パーセプトロン
 
 シグモイド関数

  2. 最適化
 • 重みを変えると誤差は 
 どうなるか?
 
 • グラフ
 ◦ 重み↓

    誤差↓
 ⇒ 重みを減らす
 ◦ 重み↑ 誤差↓
 ⇒ 重みを増やす
 
 • 傾きを調べればよい 

  3. y 1
 y 2
 x 31
 x 32
 x 33


    x 34
 x 21
 x 22
 x 23
 x 24
 x 11
 x 12
 x 13
 y 1
 y 2
 x 31
 x 32
 x 33
 x 34
 x 21
 x 22
 x 23
 x 24
 x 11
 x 12
 x 13
 Forward propagation
 Forward propagation 
 最初の重みはランダム 
 → 計算した出力と正解には誤差がある 

  4. x 31
 x 32
 x 33
 x 34
 y 1


    y 2
 x 31
 x 32
 x 33
 x 34
 x 21
 x 22
 x 23
 x 24
 x 21
 x 22
 x 23
 x 24
 x 11
 x 12
 x 13
 x 11
 x 12
 x 13
 y 1
 y 2
 Back propagation(誤差逆伝播法)
 Back propagation

  5. y 1
 y 2
 x 31
 x 32
 x 33


    x 34
 x 21
 x 22
 x 23
 x 24
 x 11
 x 12
 x 13
 Forward propagation 
 Back propagation
 ディープニューラルネットワークのまとめ

  6. 勾配消失問題
 
 
 • 傾きがほぼ0になり学習が 
 進まなくなる
 → 学習は終了していない 


    
 • 層が多いほど発生しやすい 
 
 • inputに近いほど発生しやすい 

  7. • Batch Normalization 
 ◦ 各バッチを正規化
 (バッチ:グループ分けされたデータ)
 ◦ 平均0, 分散1にする


    
 • メリット
 ◦ 学習率を上げられる
 → 勾配が小さくても学習できる
 ◦ 過学習を防ぐ
 → 従来の方法より高速
 勾配消失問題への対処