Upgrade to Pro — share decks privately, control downloads, hide ads and more …

High-Order Low-Rank Tensors for Semantic Role Labeling

High-Order Low-Rank Tensors for Semantic Role Labeling

Tao Lei and Yuan Zhang. 2015. High-Order Low-Rank Tensors for Semantic Role Labeling. In HLT-NAACL 2015 - Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics, Proceedings of the Main Conference, pages 1150–1160

takegue

July 01, 2015
Tweet

More Decks by takegue

Other Decks in Technology

Transcript

  1. 文献情報 Semantic Role labeling(SRL) の 研究報告. 高階のテンソルについて テンソル分解を 行い より少ない素性で

    SRLにおける性能を改善. 素性は普遍的なもの にも関わらず 素性が作りこまれた 重いモデル (Zhao et al. 2009) よりも良い結果 Tao Lei and Yuan Zhang. 2015. High-Order Low-Rank Tensors for Semantic Role Labeling. In HLT-NAACL 2015 - Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics, Proceedings of the Main Conference, pages 1150–1160
  2. Semantic Role labeling(SRL) • 構文情報から 述語 と 項 の関係を求める •

    (holding, meeting, A1) のようなタプルの集合z • 二部グラフ最適化 問題
  3. SRLにおける特徴 SRL における素性はテンプレートとして 言語ごとに かなり体系化されている.(Che et al., 2009) • データスパースネス

    • 過学習の問題 よりコンパクトで, より汎用なモデルを作りたい → 次元圧縮 (e.g. SVD) 本研究; 高次な組み合わせ素性表現をテンソル分解で表現. 4 次元構造 のテンソル = (述語) × (項) × (パス) x (役割ラベル) の テンソル積 パラメータ数を低く保ちつつ, 高い性能を持ったモデルの構築に成功.
  4. 定式化 - 問題点 • 素性の重み行列が巨大すぎる( n × n × m

    × l) • ゆえに低ランク行列に分解し それぞれ k×n, k×n, k×m, k×l の行列.
  5. 学習 – 目的関数 • 正解と比べた時に 以下のコスト として与える False-positive(不必要な arc がある

    ) ならば +1.0, false-negative(必要な arc が無い) ならば +2.0 役割ラベルだけが異なる場合 +0.5
  6. 学習 – power iteration • 学習の際の良い初期値を決めたい – w と P,

    R, Q, Sで対応するものは そのまま利用する – SVD の 結果 が理想的だが 必要とする計算量, メモリ量が大きすぎる – Power iteration (De Lathauwer et al. 1995)を利用 • 逐次的に p, r, q, s を収束するまで更新していく • 凸関数であるため収束することは保証されている
  7. 実験結 - 1 • Word embeddings を利用し相互作用を考慮した モデル(Roth and Woodsend

    2014)よりも有効 • 素性は疎のまま取り扱ったほうがよい?