Upgrade to Pro — share decks privately, control downloads, hide ads and more …

第0回ディープラーニング勉強会

 第0回ディープラーニング勉強会

EngineerCafe

February 05, 2022
Tweet

More Decks by EngineerCafe

Other Decks in Technology

Transcript

  1. § 自己紹介 § 本の紹介 § 1.1機械学習と深層学習 § 1.2ニューラルネットワークの学習 § 1.3畳み込みニューラルネットワーク(CNN)

    § 1.4タスクとモデル ※1.4は内容が約16ページと膨大だったので説明はざっくりしてます。詳しい説明は次 回以降やりたいと思います。 1
  2. § 岩永拓也 § 九州工業大学 情報工学部 4年 § 藤原研究室 アルゴリズム §

    趣味:ゲーム、読書、ボードゲーム、アマプラで映画 § エディタ:Atom 2
  3. X<thのとき0 th<=1のとき1 1か0 A B C 𝑤! 𝑤" 𝑤# 図3

    パーセプトロン § 例:図3のパーセプトロン 8
  4. 図にある文字の説明 § A,B,C →外からの刺激(入力)。 § X →入力を合計した値。 § 𝑤! ,

    𝑤" , 𝑤# →重み(weight)。入力は全て重要度が平等ではないため、それぞれの入力を足し合わせるときに重要度合いである重みを掛 け算して調整。 図3の場合:X= 𝐴𝑤! + 𝐵𝑤" + 𝐶𝑤# となる。 § th →閾値(しきいち)。これを超えた場合活性化が起こり1を返す。超えなかった場合は0を返す。 9
  5. § 例:多層パーセプトロンの図 図4 多層パーセプトロン 𝑃$% 𝑃&& 𝑃&% 𝑃%$ 𝑃%& 𝑃%%

    A B C 0か1 P'( = 𝑋'( < 𝑡ℎ'( : 0 𝑡ℎ'( ≤ 𝑋'( : 1 𝑖:層の番数 𝑗:層にあるパーセプトロンの番数 第1層 第2層 第3層 12
  6. § 例:ニューラルネットワークの図 図5 ニューラルネットワーク 𝐺$% 𝐺&& 𝐺&% 𝐺%$ 𝐺%& 𝐺%%

    A B C 0か1 入力層 隠れ層 出力層 G'( : さまざまな活性化関数 𝑖:層の番数 𝑗: 𝑖層にあるパーセプトロンの番数 14
  7. § 例:ディープニューラルネットワークの図 図9 ディープニューラルネットワーク 𝐺&& 𝐺&% 𝐺%$ 𝐺%& 𝐺%% A

    B C 0か1 入力層 隠れ層1 出力層 𝐺$% 𝐺$& 𝐺$$ 𝐺("#$)$ 𝐺+% 𝐺+& 𝐺+$ … 隠れ層n 隠れ層2 G'( : さまざまな活性化関数 𝑖:層の番数 𝑗: 𝑖層にあるパーセプトロンの番数 19
  8. § 問題集を勉強する流れを想像する。 A B 人 ①問題を解く ③復習 正解 解答 A

    D A B ②答え合わせ ②答え合わせ 図11 問題集の勉強の流れの図 問題 21
  9. § 学習曲線の図 誤差 学習回数 誤差 学習回数 誤差 学習回数 誤差 学習回数

    過学習 うまく行ってる! 訓練用データに対する学習曲線 訓練用データに対する学習曲線 検証用データに対する学習曲線 検証用データに対する学習曲線 図14 学習曲線と過学習 28
  10. § 3つの学習の特徴をまとめた表 学習方法 ③の タイミング メモリ 使用量 学習の 安定性 学習時間

    データの 追加 エポック オンライン学習 1データ毎 ⭕(小) ❌ ❌(長い) ⭕ 1エポック =nステップ ミニバッチ学習 バッチサイズ 分のデータ毎 🔺(ミニバッチ に依存) 🔺 🔺(ミニバッ チに依存) ❌ 1エポック =(n/バッチサイズ) ステップ バッチ学習 全データで 一括 ❌(大) ⭕ ⭕(短い) ❌ 1エポック =1ステップ 表1 学習方法の特徴 n:データ数 33
  11. 誤差 重み 誤差 重み 誤差 重み 図15 重みの更新 →目標の場所 →今の重み

    傾きが負より重みを大きくする 傾きはまだ負なので重みを大きくする 傾きはせいで大きくしすぎたので小さくする 35
  12. 0 0 0 0 0 0 0 0 0 0

    0 0 0 0 0 0 0 0 0 0 0 0 0 0 サイズは同じ パディング(0) 図22 2次元でのパディングのイメージ 入力側 出力側 47
  13. ✖ ✖ ✖ ✖ ✖ ✖ ✖ ✖ ✖ ✖

    ✖ ✖ ✖ ✖ ✖ ✖ ✖ ✖ 4 2 2 2 1 1 ✖ ✖ ✖ 3 1 1 1 2 2 ✖ ✖ ✖ 3 4 2 入力側 出力側 図25 MaxPooling層(2次元でのイメージ) 54 ・2×2カーネル ・2×2ストライド
  14. 1 2 3 3 4 2 3 1 4 3

    3 1 1 1 2 3 3 1 1 4 4 2 3 3 1 4 4 4 2 2 4 2 2 2 3 3 3 3 4 3 3 4 1 1 2 入力側 出力側 図26 UpSampling層(2次元のイメージ) 56
  15. 図27 TransposedConvolution層(2次元でのイメージ) d e f a b c g h

    i 0 a 0 0 0 0 0 0 0 0 i 0 0 0 0 0 0 0 0 g 0 0 0 0 0 0 0 0 a 0 0 0 0 0 0 0 f 0 0 0 b 0 0 h 0 e d 0 0 𝑦%& 𝑦%' 𝑦(& 𝑦(' 𝑦&& 𝑦&' 𝑦)& 𝑦)' 𝑦'& 𝑦'' 𝑦%( 𝑦%% 𝑦%) 𝑦(( 𝑦(% 𝑦() 𝑦&( 𝑦&% 𝑦&) 𝑦)( 𝑦)% 𝑦)) 𝑦'( 𝑦'% 𝑦') 58
  16. 0.33 1 0 0 1 1 1 1 0 2

    3 0 1 5 3 1 3 2 4 1 2 1 1 3 1 0 2 1 2 5 2 4 3 1 3 3 0 0.5 1 1 0.75 1 1 1 1 1 0 0.4 0 0 1 1 0 0 ノードごとに値を 0~1で正規化 バッチないのデータが全てくるまで待つ 図29 BatchNormalization層(2次元でのイメージ) 62
  17. CV CV Pooling CV CV Pooling CV CV Pooling …

    図30 CNNの基本構造 Convolutionブロック 64