文献紹介
High-Order Low-Rank Tensors for
Semantic Role Labeling
●
自然言語処理研究室
●
竹野峻輔
Slide 2
Slide 2 text
文献情報
Semantic Role labeling(SRL) の 研究報告.
高階のテンソルについて テンソル分解を 行い
より少ない素性で SRLにおける性能を改善.
素性は普遍的なもの にも関わらず
素性が作りこまれた 重いモデル (Zhao et al. 2009) よりも良い結果
Tao Lei and Yuan Zhang. 2015. High-Order Low-Rank Tensors for
Semantic Role Labeling. In HLT-NAACL 2015 - Human Language
Technology Conference of the North American Chapter of the
Association of Computational Linguistics, Proceedings of the Main
Conference, pages 1150–1160
学習 – 目的関数
●
最終的には, hinge loss を利用した損失関数を利用
損失関数はパラメータθ = {w, P, R, Q, S}について非凸
Slide 12
Slide 12 text
学習 - 重みの更新
●
重みの更新式は, 以下の通り
– 更新幅が Adaptive に変化する
Slide 13
Slide 13 text
学習 – power iteration
●
学習の際の良い初期値を決めたい
– w と P, R, Q, Sで対応するものは そのまま利用する
– SVD の 結果 が理想的だが
必要とする計算量, メモリ量が大きすぎる
– Power iteration (De Lathauwer et al. 1995)を利用
●
逐次的に p, r, q, s を収束するまで更新していく
●
凸関数であるため収束することは保証されている
Slide 14
Slide 14 text
実験結 - 1
●
Word embeddings を利用し相互作用を考慮した
モデル(Roth and Woodsend 2014)よりも有効
●
素性は疎のまま取り扱ったほうがよい?
Slide 15
Slide 15 text
●
Word embeddings を利用しした モデル
(Roth and Woodsend 2014)よりも有効
実験結 - 2
Slide 16
Slide 16 text
●
Word embeddings を利用し相互作用を考慮した
モデル(Roth and Woodsend 2014)よりも有効
●
素性は疎のまま取り扱ったほうがよい?
実験結 - 3