Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ニューラルネット実践

Ayumu
February 21, 2019

 ニューラルネット実践

ニューラルネット、損失関数、勾配法、前回の疑問点

長岡技術科学大学 自然言語処理研究室
学部3年 守谷 歩

Ayumu

February 21, 2019
Tweet

More Decks by Ayumu

Other Decks in Technology

Transcript

  1. ⚫活性化関数h(x)を与える = ቊ 0 1 ∗ 1 + 2 ∗

    2 + ≤ 0 1 1 ∗ 1 + 2 ∗ 2 + > 0 (w1,w2:重み x1,x2:入力 b:バイアス) = h(b+w1∗x1+w2∗x2) 復習:ニューラルネットの式 h(x) x1 x2 w1 w2 1 y b
  2. ⚫分類問題などではソフトマックス関数を用い る ⚫ソフトマックス関数: ∶ = exp σ =1 exp( )

    ⚫ソフトマックス関数の出力はすべての入力 信号から結びつきを持たせる。各ニューロン がすべての入力信号から影響を受ける形に なる。 ソフトマックス関数 a1 y1 δ() a2 y2 a3 y3
  3. ⚫損失関数として、交差エントロピー誤差といったものがある。 = − σ log (y:ニューラルネットの出力,t:教師データ) ⚫さっき考えたone-hot表現で考える y = [0.1,0.05,0.6,0.0,0.05,0.1,0.0,0.1,0.0,0.0]

    t = [0,0,1,0,0,0,0,0,0,0] ニューラルネットの出力が0.6の場合、交差エントロピー誤差は -log0.6=0.51となって、出力が正しく考えられる場合小さい値になる。 交差エントロピー誤差
  4. ⚫ 0 , 1 = 0 2 + 1 2の最小値を勾配法で求める

    勾配降下法(最小値を求める)実装 コード 結果
  5. 宿題:活性化関数 ReLUであった場合 ⚫微分されても活性化関数は ℎ′ = ቊ 1 ( > 0)

    0 ( < 0) そのため、勾配消失が防げるため、ReLU関数が使われるこ とが多い