Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
金研究室 勉強会 『バックプロパゲーションと勾配消失問題』
Search
winnie279
August 12, 2021
Science
0
480
金研究室 勉強会 『バックプロパゲーションと勾配消失問題』
バックプロパゲーションと勾配消失問題, 中村勇士, 2021
winnie279
August 12, 2021
Tweet
Share
More Decks by winnie279
See All by winnie279
NowWay:訪⽇外国⼈旅⾏者向けの災害⽀援サービス
yjn279
0
12
「みえるーむ」(都知事杯Open Data Hackathon 2024 Final Stage)
yjn279
0
68
「みえるーむ」(都知事杯オープンデータ・ハッカソン 2024)
yjn279
0
73
5分で学ぶOpenAI APIハンズオン
yjn279
0
220
『確率思考の戦略論』
yjn279
0
150
Amazonまでのレコメンド入門
yjn279
1
180
もう一度理解するTransformer(後編)
yjn279
0
85
金研究室 勉強会 『もう一度理解する Transformer(前編)』
yjn279
0
120
金研究室 勉強会 『U-Netとそのバリエーションについて』
yjn279
0
840
Other Decks in Science
See All in Science
2025-06-11-ai_belgium
sofievl
1
220
安心・効率的な医療現場の実現へ ~オンプレAI & ノーコードワークフローで進める業務改革~
siyoo
0
430
LayerXにおける業務の完全自動運転化に向けたAI技術活用事例 / layerx-ai-jsai2025
shimacos
2
21k
20251212_LT忘年会_データサイエンス枠_新川.pdf
shinpsan
0
220
Accelerating operator Sinkhorn iteration with overrelaxation
tasusu
0
150
Rashomon at the Sound: Reconstructing all possible paleoearthquake histories in the Puget Lowland through topological search
cossatot
0
340
SpatialRDDパッケージによる空間回帰不連続デザイン
saltcooky12
0
120
データベース11: 正規化(1/2) - 望ましくない関係スキーマ
trycycle
PRO
0
1k
データマイニング - グラフ構造の諸指標
trycycle
PRO
0
240
検索と推論タスクに関する論文の紹介
ynakano
1
120
蔵本モデルが解き明かす同期と相転移の秘密 〜拍手のリズムはなぜ揃うのか?〜
syotasasaki593876
1
180
【RSJ2025】PAMIQ Core: リアルタイム継続学習のための⾮同期推論・学習フレームワーク
gesonanko
0
570
Featured
See All Featured
jQuery: Nuts, Bolts and Bling
dougneiner
65
8.3k
DBのスキルで生き残る技術 - AI時代におけるテーブル設計の勘所
soudai
PRO
61
48k
svc-hook: hooking system calls on ARM64 by binary rewriting
retrage
1
46
Building the Perfect Custom Keyboard
takai
2
670
Java REST API Framework Comparison - PWX 2021
mraible
34
9.1k
How to make the Groovebox
asonas
2
1.9k
The Mindset for Success: Future Career Progression
greggifford
PRO
0
200
YesSQL, Process and Tooling at Scale
rocio
174
15k
Learning to Love Humans: Emotional Interface Design
aarron
274
41k
Data-driven link building: lessons from a $708K investment (BrightonSEO talk)
szymonslowik
1
870
The World Runs on Bad Software
bkeepers
PRO
72
12k
Helping Users Find Their Own Way: Creating Modern Search Experiences
danielanewman
31
3.1k
Transcript
バックプロパゲーションと勾配 消失問題 金研 機械学習勉強会 2021/08/12 中村勇士
単純パーセプトロン x 1 x 2 x 3 x 4 x
5 y モデル化 w i :x i がどのくらい重要か(重み) 補正項 (バイアス) ニューロン ステップ関数 単純 パーセプトロン シグモイド関数
最適化 最初から最適な重み・バイアスは分からない → 重みの初期値はランダム 出力と正解がずれる(誤差) → トレーニングで重みの誤差を修正する
最適化 • 重みを変えると誤差は どうなるか? • グラフ ◦ 重み↓
誤差↓ ⇒ 重みを減らす ◦ 重み↑ 誤差↓ ⇒ 重みを増やす • 傾きを調べればよい
単純パーセプトロンのまとめ Forward Back 誤差を修正して重みを更新・最適化
ディープニューラルネットワーク モデル化
y 1 y 2 x 31 x 32 x 33
x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 y 1 y 2 x 31 x 32 x 33 x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 Forward propagation Forward propagation 最初の重みはランダム → 計算した出力と正解には誤差がある
x 31 x 32 x 33 x 34 y 1
y 2 x 31 x 32 x 33 x 34 x 21 x 22 x 23 x 24 x 21 x 22 x 23 x 24 x 11 x 12 x 13 x 11 x 12 x 13 y 1 y 2 Back propagation(誤差逆伝播法) Back propagation
y 1 y 2 x 31 x 32 x 33
x 34 x 21 x 22 x 23 x 24 x 11 x 12 x 13 Forward propagation Back propagation ディープニューラルネットワークのまとめ
勾配消失問題 • 傾きがほぼ0になり学習が 進まなくなる → 学習は終了していない
• 層が多いほど発生しやすい • inputに近いほど発生しやすい
勾配消失問題 左の層ほど0.25以下の数をたくさんかける → 傾きが小さくなる シグモイド関数の 微分 シグモイド関数 Back
propagationの計算のため微分 → maxが0.25 (0.25)4 ≒ 0.004
勾配消失問題への対処 傾きがシグモイド関数より大きい x > 0で傾きが常に1 x ≤ 0に傾きをつけるなど
活性化関数の改善
• Batch Normalization ◦ 各バッチを正規化 (バッチ:グループ分けされたデータ) ◦ 平均0, 分散1にする
• メリット ◦ 学習率を上げられる → 勾配が小さくても学習できる ◦ 過学習を防ぐ → 従来の方法より高速 勾配消失問題への対処