Upgrade to Pro — share decks privately, control downloads, hide ads and more …

深層学習時代の⾃然言語処理 @TokyoWebmining

Yuya Unno
January 25, 2015

深層学習時代の⾃然言語処理 @TokyoWebmining

Yuya Unno

January 25, 2015
Tweet

More Decks by Yuya Unno

Other Decks in Technology

Transcript

  1. Recurrent Neural Network Language Model (RNNLM) [Mikolov+10] l  RNNを使った⾔言語モデル l 

    次の単語を予測する l  隠れ層に⽂文脈情報が埋め込ま れていくイメージ 15 ⽂文字、単語 時刻 t-‐‑‒1 の隠れ層 隠れ層 次の⼊入⼒力力 の予測 コピー
  2. 議論論:Recursive Neural NetworkとConvolutional Neural Network (CNN) の関係? l  いずれも隣隣接要素から新しいベクトルを構成している点 で似ている

    l  CNNはどのような構造があるか仮定を置いていない点、 繰り返しの回数が予め決まっている点、層毎に重みが違 う点で異異なる 25
  3. 品詞 vs 語 43 品詞 語 •  数が少ない •  表現力不足

    •  数が多すぎる •  表現力は十分 この辺にいいのがあるは ず・・・
  4. まとめ l  ⾃自然⾔言語処理理でよく⾒見見られる深層学習を紹介した l  Recurrent Neural Networkは状態をもって前から順に読む l  Recursive Neural

    Networkは構造に沿ってベクトルを構築する l  RecurrentはShift-Reduceパーザーの状態を埋め込んで いるようにみえる l  RecursiveはHPSGパーザーの語彙項⽬目相当の情報を埋め 込んでいるように⾒見見える l  いずれも⾮非⾃自明な規則を学習によって獲得してくれてい る・・・のかな・・? 48