Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
金研究室 勉強会 『バックプロパゲーションと勾配消失問題』
Search
winnie279
August 12, 2021
Science
0
480
金研究室 勉強会 『バックプロパゲーションと勾配消失問題』
バックプロパゲーションと勾配消失問題, 中村勇士, 2021
winnie279
August 12, 2021
Tweet
Share
More Decks by winnie279
See All by winnie279
NowWay:訪⽇外国⼈旅⾏者向けの災害⽀援サービス
yjn279
0
12
「みえるーむ」(都知事杯Open Data Hackathon 2024 Final Stage)
yjn279
0
68
「みえるーむ」(都知事杯オープンデータ・ハッカソン 2024)
yjn279
0
73
5分で学ぶOpenAI APIハンズオン
yjn279
0
220
『確率思考の戦略論』
yjn279
0
150
Amazonまでのレコメンド入門
yjn279
1
180
もう一度理解するTransformer(後編)
yjn279
0
85
金研究室 勉強会 『もう一度理解する Transformer(前編)』
yjn279
0
120
金研究室 勉強会 『U-Netとそのバリエーションについて』
yjn279
0
840
Other Decks in Science
See All in Science
My Little Monster
juzishuu
0
410
コンピュータビジョンによるロボットの視覚と判断:宇宙空間での適応と課題
hf149
1
480
データベース05: SQL(2/3) 結合質問
trycycle
PRO
0
860
SpatialRDDパッケージによる空間回帰不連続デザイン
saltcooky12
0
120
論文紹介 音源分離:SCNET SPARSE COMPRESSION NETWORK FOR MUSIC SOURCE SEPARATION
kenmatsu4
0
470
検索と推論タスクに関する論文の紹介
ynakano
1
120
2025-06-11-ai_belgium
sofievl
1
220
イロレーティングを活用した関東大学サッカーの定量的実力評価 / A quantitative performance evaluation of Kanto University Football Association using Elo rating
konakalab
0
160
機械学習 - 決定木からはじめる機械学習
trycycle
PRO
0
1.2k
Algorithmic Aspects of Quiver Representations
tasusu
0
150
AIによる科学の加速: 各領域での革新と共創の未来
masayamoriofficial
0
350
Distributional Regression
tackyas
0
260
Featured
See All Featured
DevOps and Value Stream Thinking: Enabling flow, efficiency and business value
helenjbeal
1
76
The AI Search Optimization Roadmap by Aleyda Solis
aleyda
1
5.1k
Odyssey Design
rkendrick25
PRO
0
450
Build The Right Thing And Hit Your Dates
maggiecrowley
38
3k
Claude Code どこまでも/ Claude Code Everywhere
nwiizo
61
51k
Building an army of robots
kneath
306
46k
Between Models and Reality
mayunak
1
160
HU Berlin: Industrial-Strength Natural Language Processing with spaCy and Prodigy
inesmontani
PRO
0
120
Typedesign – Prime Four
hannesfritz
42
2.9k
I Don’t Have Time: Getting Over the Fear to Launch Your Podcast
jcasabona
34
2.6k
Into the Great Unknown - MozCon
thekraken
40
2.2k
How GitHub (no longer) Works
holman
316
140k
Transcript
バックプロパゲーションと勾配 消失問題 金研 機械学習勉強会 2021/08/12 中村勇士
単純パーセプトロン x 1 x 2 x 3 x 4 x
5 y モデル化 w i :x i がどのくらい重要か(重み) 補正項 (バイアス) ニューロン ステップ関数 単純 パーセプトロン シグモイド関数
最適化 最初から最適な重み・バイアスは分からない → 重みの初期値はランダム 出力と正解がずれる(誤差) → トレーニングで重みの誤差を修正する
最適化 • 重みを変えると誤差は どうなるか? • グラフ ◦ 重み↓
誤差↓ ⇒ 重みを減らす ◦ 重み↑ 誤差↓ ⇒ 重みを増やす • 傾きを調べればよい
単純パーセプトロンのまとめ Forward Back 誤差を修正して重みを更新・最適化
ディープニューラルネットワーク モデル化
y 1 y 2 x 31 x 32 x 33
x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 y 1 y 2 x 31 x 32 x 33 x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 Forward propagation Forward propagation 最初の重みはランダム → 計算した出力と正解には誤差がある
x 31 x 32 x 33 x 34 y 1
y 2 x 31 x 32 x 33 x 34 x 21 x 22 x 23 x 24 x 21 x 22 x 23 x 24 x 11 x 12 x 13 x 11 x 12 x 13 y 1 y 2 Back propagation(誤差逆伝播法) Back propagation
y 1 y 2 x 31 x 32 x 33
x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 Forward propagation Back propagation ディープニューラルネットワークのまとめ
勾配消失問題 • 傾きがほぼ0になり学習が 進まなくなる → 学習は終了していない
• 層が多いほど発生しやすい • inputに近いほど発生しやすい
勾配消失問題 左の層ほど0.25以下の数をたくさんかける → 傾きが小さくなる シグモイド関数の 微分 シグモイド関数 Back
propagationの計算のため微分 → maxが0.25 (0.25)4 ≒ 0.004
勾配消失問題への対処 傾きがシグモイド関数より大きい x > 0で傾きが常に1 x ≤ 0に傾きをつけるなど
活性化関数の改善
• Batch Normalization ◦ 各バッチを正規化 (バッチ:グループ分けされたデータ) ◦ 平均0, 分散1にする
• メリット ◦ 学習率を上げられる → 勾配が小さくても学習できる ◦ 過学習を防ぐ → 従来の方法より高速 勾配消失問題への対処