Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
金研究室 勉強会 『バックプロパゲーションと勾配消失問題』
Search
winnie279
August 12, 2021
Science
0
440
金研究室 勉強会 『バックプロパゲーションと勾配消失問題』
バックプロパゲーションと勾配消失問題, 中村勇士, 2021
winnie279
August 12, 2021
Tweet
Share
More Decks by winnie279
See All by winnie279
「みえるーむ」(都知事杯Open Data Hackathon 2024 Final Stage)
yjn279
0
62
「みえるーむ」(都知事杯オープンデータ・ハッカソン 2024)
yjn279
0
68
5分で学ぶOpenAI APIハンズオン
yjn279
0
210
『確率思考の戦略論』
yjn279
0
140
Amazonまでのレコメンド入門
yjn279
1
170
もう一度理解するTransformer(後編)
yjn279
0
79
金研究室 勉強会 『もう一度理解する Transformer(前編)』
yjn279
0
110
金研究室 勉強会 『U-Netとそのバリエーションについて』
yjn279
0
730
金研究室 勉強会 『Seismic Data Augmentation Based on Conditional Generative Adversarial Networks』
yjn279
0
99
Other Decks in Science
See All in Science
「美は世界を救う」を心理学で実証したい~クラファンを通じた新しい研究方法
jimpe_hitsuwari
1
170
05_山中真也_室蘭工業大学大学院工学研究科教授_だてプロの挑戦.pdf
sip3ristex
0
690
データベース01: データベースを使わない世界
trycycle
PRO
1
830
[Paper Introduction] From Bytes to Ideas:Language Modeling with Autoregressive U-Nets
haruumiomoto
0
150
ド文系だった私が、 KaggleのNCAAコンペでソロ金取れるまで
wakamatsu_takumu
2
1.5k
academist Prize 4期生 研究トーク延長戦!「美は世界を救う」っていうけど、どうやって?
jimpe_hitsuwari
0
410
動的トリートメント・レジームを推定するDynTxRegimeパッケージ
saltcooky12
0
210
高校生就活へのDA導入の提案
shunyanoda
0
6k
SciPyDataJapan 2025
schwalbe10
0
270
サイコロで理解する原子核崩壊と拡散現象 〜単純化されたモデルで本質を理解する〜
syotasasaki593876
0
100
Gemini Prompt Engineering: Practical Techniques for Tangible AI Outcomes
mfonobong
2
190
07_浮世満理子_アイディア高等学院学院長_一般社団法人全国心理業連合会代表理事_紹介資料.pdf
sip3ristex
0
660
Featured
See All Featured
We Have a Design System, Now What?
morganepeng
53
7.8k
"I'm Feeling Lucky" - Building Great Search Experiences for Today's Users (#IAC19)
danielanewman
230
22k
The Art of Delivering Value - GDevCon NA Keynote
reverentgeek
16
1.7k
Fantastic passwords and where to find them - at NoRuKo
philnash
52
3.5k
Code Review Best Practice
trishagee
72
19k
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
140
34k
Put a Button on it: Removing Barriers to Going Fast.
kastner
60
4k
Raft: Consensus for Rubyists
vanstee
140
7.2k
Mobile First: as difficult as doing things right
swwweet
225
10k
Why You Should Never Use an ORM
jnunemaker
PRO
59
9.6k
What’s in a name? Adding method to the madness
productmarketing
PRO
24
3.7k
Scaling GitHub
holman
463
140k
Transcript
バックプロパゲーションと勾配 消失問題 金研 機械学習勉強会 2021/08/12 中村勇士
単純パーセプトロン x 1 x 2 x 3 x 4 x
5 y モデル化 w i :x i がどのくらい重要か(重み) 補正項 (バイアス) ニューロン ステップ関数 単純 パーセプトロン シグモイド関数
最適化 最初から最適な重み・バイアスは分からない → 重みの初期値はランダム 出力と正解がずれる(誤差) → トレーニングで重みの誤差を修正する
最適化 • 重みを変えると誤差は どうなるか? • グラフ ◦ 重み↓
誤差↓ ⇒ 重みを減らす ◦ 重み↑ 誤差↓ ⇒ 重みを増やす • 傾きを調べればよい
単純パーセプトロンのまとめ Forward Back 誤差を修正して重みを更新・最適化
ディープニューラルネットワーク モデル化
y 1 y 2 x 31 x 32 x 33
x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 y 1 y 2 x 31 x 32 x 33 x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 Forward propagation Forward propagation 最初の重みはランダム → 計算した出力と正解には誤差がある
x 31 x 32 x 33 x 34 y 1
y 2 x 31 x 32 x 33 x 34 x 21 x 22 x 23 x 24 x 21 x 22 x 23 x 24 x 11 x 12 x 13 x 11 x 12 x 13 y 1 y 2 Back propagation(誤差逆伝播法) Back propagation
y 1 y 2 x 31 x 32 x 33
x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 Forward propagation Back propagation ディープニューラルネットワークのまとめ
勾配消失問題 • 傾きがほぼ0になり学習が 進まなくなる → 学習は終了していない
• 層が多いほど発生しやすい • inputに近いほど発生しやすい
勾配消失問題 左の層ほど0.25以下の数をたくさんかける → 傾きが小さくなる シグモイド関数の 微分 シグモイド関数 Back
propagationの計算のため微分 → maxが0.25 (0.25)4 ≒ 0.004
勾配消失問題への対処 傾きがシグモイド関数より大きい x > 0で傾きが常に1 x ≤ 0に傾きをつけるなど
活性化関数の改善
• Batch Normalization ◦ 各バッチを正規化 (バッチ:グループ分けされたデータ) ◦ 平均0, 分散1にする
• メリット ◦ 学習率を上げられる → 勾配が小さくても学習できる ◦ 過学習を防ぐ → 従来の方法より高速 勾配消失問題への対処