Upgrade to Pro — share decks privately, control downloads, hide ads and more …

統計的係り受け解析入門

Yuya Unno
November 07, 2010

 統計的係り受け解析入門

Yuya Unno

November 07, 2010
Tweet

More Decks by Yuya Unno

Other Decks in Technology

Transcript

  1. © 2010 IBM Corporation IBM Research - Tokyo 2 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 自己紹介 (1/2) 海野 裕也(うんの ゆうや) –twitter: @unnonouno –blog: http://unnonouno.blogspot.com –NLP かプログラミングか写真の話題 日本アイ・ビー・エム 東京基礎研究所所属 –今は TRL という略称は使われていません :) –テキストマイニング,自然言語処理の研究開発 –主に,動的計画法と木構造と戯れている
  2. © 2010 IBM Corporation IBM Research - Tokyo 3 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 自己紹介 (2/2) 読めない unno / no / uno –≠ unnounno, unonono –たまにリプライ先を間違えられる 海野(うんの) / の / UNO –この文自体に特に意味はない かな漢字変換と分かち書きという日本語自然言語処理 特有の問題を表した ID @unnonouno
  3. © 2010 IBM Corporation IBM Research - Tokyo 4 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 今日のお話 係り受け解析とは何か知ろう いくつかの重要な用語,記法を知ろう 典型的なアルゴリズムを知ろう
  4. © 2010 IBM Corporation IBM Research - Tokyo 5 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce 法 –Eisner 法 –その他の手法 まとめ
  5. © 2010 IBM Corporation IBM Research - Tokyo 6 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce 法 –Eisner 法 –その他の手法 まとめ
  6. © 2010 IBM Corporation IBM Research - Tokyo 7 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 係り受け解析とは何か? 各単語( or 文節)の係り先を決定する 係り先とは何ぞや?という問題は割愛します :) 今日, 私は NLP の 発表を した。 ※日本語だと係り元から係り先を指すことが多い 紫の部分を当てる問題
  7. © 2010 IBM Corporation IBM Research - Tokyo 8 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 海賊王に俺はなる! 海賊王に 俺は なる! 名詞節 動詞節 文 海賊王に 俺は なる! 海賊王に 俺は なる! 海賊王に 俺は なる! 係り受け(依存文法) 句構造文法 ? 文法を変える? 左の構造を変換 する? どちらも自然に 扱える 名詞節 動詞節 文法は適当です
  8. © 2010 IBM Corporation IBM Research - Tokyo 9 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 係り受け解析の応用例 情報抽出に使う –「私は・・・発表を・・・した」を探す 今日, 私は NLP の 発表を した。 話した。 私は 人と 発表を した ◦ × 私は 発表を した。 単なる単語共起ではゴミが多いときに有効
  9. © 2010 IBM Corporation IBM Research - Tokyo 10 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 教科書の紹介 Dependency Parsing (Synthesis Lectures on Human Language Technologies) –S. Kubler, R. McDonald, J. Nivre –MST パーザーの R. McDonald と Shift- Reduce パーザーの J. Nivre の本 –読みやすいのでお勧め 言語と計算 (4) 確率的言語モデル –北 研二 , 辻井 潤一 –この本にも Eisner 法と同等の手法が載ってる –最近の本を知っている人は教えてください
  10. © 2010 IBM Corporation IBM Research - Tokyo 11 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 係り受け解析の用語 今日は,交差なし・双方向を中心にはなします 交差あり (non-projective) 交差なし (projective) 双方向 単方向 最近は交差を許す問題設定が多い ほとんどの場合,交差しない 英語など一般的には双方向 日本語書き言葉など一部の言語
  11. © 2010 IBM Corporation IBM Research - Tokyo 12 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 問題の定式化 入力 –単語列 S = {w 1 , …, w n } 出力 –係り先 D = {d 1 , …, d n } –ただし,連結・非サイクルである必要アリ 長さ n の単語列の各単語の係り先を出力 ラベル付きなどもあるが今回は無視 日本語の場合,文節単 位のことも多い 今日, 私は NLP の 発表を した。 国際的には矢印は逆向き
  12. © 2010 IBM Corporation IBM Research - Tokyo 13 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 思いつくままにやってみる(品詞編) 係り関係になりそうな品詞組みを考える –名詞,→動詞 –名詞は→動詞 –名詞の→名詞 –名詞を→動詞 係り関係になる品詞対をルール化すればよさそう 今日, 私は NLP の 発表を した。
  13. © 2010 IBM Corporation IBM Research - Tokyo 14 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 品詞だけでは解決できない例がすぐ思い浮かぶ 同じ名詞なのに係り先が異なる 本質的に曖昧な文も存在する –ex. 黒い目の大きな女の子 値段 値段 値段 値段の 高い ワインを 飲んだ。 父 父 父 父の 高い ワインを 飲んだ。
  14. © 2010 IBM Corporation IBM Research - Tokyo 15 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 プログラミング言語の構文解析との違い プログラミング言語の文法は曖昧性がない –1 つの文に対して高々 1 つの構文木しか存在しない –線形時間で必ず解析できるクラスに限定される 自然言語の文法は曖昧 –1 つの文に対して解釈可能な構文木が複数存在する –一般的には文長の指数個候補が存在する ルールのみでは 1 つの構文木に決定できない
  15. © 2010 IBM Corporation IBM Research - Tokyo 16 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 機械学習を使ってみよう それぞれの単語の係り先を多値分類 交差しないよう,全単語に対して繰り返す これで結構いい精度がでる –通称,相対モデル [ 工藤 & 松本 04] –多値分類は最大エントロピー法を使う 今日, 私は NLP の 発表を した。 今日, 私は NLP の 発表を した。
  16. © 2010 IBM Corporation IBM Research - Tokyo 17 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 係り受け解析の難しさ 先の手法は全候補を網羅していない 出力の候補は入力長の指数オーダー以上 –各単語の係り先候補が n くらいあるので,出力 D の候補は 大体 nn くらいある これを解消するために色んなテクを駆使する –文法理論,機械学習,動的計画法,グラフ理論,整数計 画法 本質的には膨大な候補存在する ところをどう抑えるかが鍵
  17. © 2010 IBM Corporation IBM Research - Tokyo 18 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce 法 –Eisner 法 –その他の手法 まとめ
  18. © 2010 IBM Corporation IBM Research - Tokyo 19 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 係り受け解析の 2 大派閥 膨大な候補から選ぶ戦略として 2 つの手法方向性がある Transition-based (局所最適型) –局所的な選択を繰り返すため,大域最適ではない –複雑な特徴量を使える –Shift-Reduce Graph-based (大域最適型) –全候補の中からスコア最大の木を選ぶ –単純な特徴量しか使えない –MST , Eisner
  19. © 2010 IBM Corporation IBM Research - Tokyo 20 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 両者を比較する 局所最適 大域最適 ローカル素性 大域素性 Shift-Reduce MST Eisner Higher-order Eisner ILP 性能が良い 計算量を抑えながら大域素 性・大域最適を目指したい 性能が悪い 両方満たす代わり に解は近似解
  20. © 2010 IBM Corporation IBM Research - Tokyo 21 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 今日紹介する手法 Shift-Reduce 法 –Transition-based の代表的な手法 –実装簡単,高速 Eisner 法 –Graph-based の代表的な手法の一つ –動的計画法は楽しい –※こっちがメインです
  21. © 2010 IBM Corporation IBM Research - Tokyo 22 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 Shift-Reduce 法 [Nivre03, Yamada&Matsumoto03] 前から順に読んで,未処理の単語をスタックに積む スタックと次の単語間に係り関係があったら消す 前から読んでいく人間の理解に近い(?) 例)今日,私は NLP の・・・ 今日, 私は NLP の 発表を した。 ※係り先が決まっていない単語 スタック スタック スタック スタック
  22. © 2010 IBM Corporation IBM Research - Tokyo 23 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 Shift-Reduce 法の特徴 積む (shift) か消す (reduce) の分類を繰り返す 利点 –高速(線形時間),作るのが簡単 –遠くの構造を素性に入れられる 欠点 –大域最適ではない( garden path などに弱い) –自明には交差に対応できない This This is is is a is a is pen is pen shift shift left shift shift left right
  23. © 2010 IBM Corporation IBM Research - Tokyo 24 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 Shift-Reduce の詳細 [Nivre04] 入力をそのまま積む (shift) スタックの上 2 つに係り関係をつける (left / right) 操作の異なる亜種は多い これらの操作で生成される構造に交差はない This is a pen This This is is is a is a is pen is pen shift shift left shift shift left right
  24. © 2010 IBM Corporation IBM Research - Tokyo 25 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 Swap 操作で交差へ対応 [Nivre09] スタックの 2 番目の要素を戻す Swap 操作を追加 A B C A A B A C A A B B shift shift shift swap right shift right A C B B swap されたノードは一 度入力列に戻される
  25. © 2010 IBM Corporation IBM Research - Tokyo 26 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 Eisner 法 動的計画法により大域最適を探す CKY アルゴリズムと同種の方法を使う –基本的に非交差しか扱えない 局所的な素性しか扱えない –“局所”の度合いで複雑度が異なる( cf. 高階 Eisner )
  26. © 2010 IBM Corporation IBM Research - Tokyo 27 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 おさらい: CKY アルゴリズム 句構造文法の構文解析手法 下図のような木構造を出力する 動的計画法で計算量は O(n3) 1: 今日, 2: 私は 3:NLP の 4: 発表を 5: した。 非終端記号 は省略
  27. © 2010 IBM Corporation IBM Research - Tokyo 28 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 チョムスキー標準形 (Chomsky Normal Form, CNF) 書き換え規則が 2 分割か,単語生成しかない文法 一般的には非終端記号( )にはラベルが振られてい る CKY アルゴリズムは文法が CNF である必要がある or w
  28. © 2010 IBM Corporation IBM Research - Tokyo 29 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 CKY アルゴリズムの定式化 sequence に対する Viterbi アルゴリズムの tree 版 局所的なスコアの総和が最大になる tree を選択する tree の候補は指数なので,全列挙はできない 1: 今日, 2: 私は 3:NLP の 4: 発表を 5: した。 各三角にスコアが割 り振られ,その総和 が全体のスコア
  29. © 2010 IBM Corporation IBM Research - Tokyo 30 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 CKY アルゴリズムを再帰で理解する (1/3) 1: 今日, 2: 私は 3:NLP の 4: 発表を 5: した。 (3-4) (3-5) (2-5) (1-5) 3 番目から 5 番目の単語が 末端に来ることを示している (1-1) (2-2) (3-3) (4-4) (5-5) 領域に関して,以下のルールが成り立つ – (s, e) (s, k) + (k+1, e) – (s, s) 終端 左側の木と右側の木の境目を 再帰的に決定している
  30. © 2010 IBM Corporation IBM Research - Tokyo 31 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 CKY アルゴリズムを再帰で理解する (2/3) s k k+1 e (k+1 - e) (s - e) (s - k) s から e の領域を k と k+1 で分けたときの最大スコアは, s から k の領域の最大 と, k+1 から e の領域の最大と,三角の局所スコアの和 k を s から e-1 まで変化させて最大値をとる k を探す s から k , k+1 から e の領域も再帰的に最大の構造を探す ・・・ ・・・
  31. © 2010 IBM Corporation IBM Research - Tokyo 32 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 CKY アルゴリズムを再帰で理解する (3/3) 領域 (s,e) の最大スコア f(s, e) は –f(s, e) = max k {S(s,k,e) + f(s, k) + f(k+1, e)} –S(s,k,e) は (s,e) (s,k) (k+1,e) という規則に対す る局所的なスコア 領域 (s,s) のスコア f(s,s) は –f(s, s)=0 上記再帰式をメモ化すれば OK
  32. © 2010 IBM Corporation IBM Research - Tokyo 33 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 係り受けと句構造の比較 なんとなく形が似ている気もする・・・ 今日, 私は NLP の 発表を した。 今日, 私は NLP の 発表を した。
  33. © 2010 IBM Corporation IBM Research - Tokyo 34 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 関連の薄そうな 2 つは,以下の記号を導入すると・・・ 係り受けを句構造風に解釈するには? This is a pen ルール のところに係り受け w 句構造と同種の手法 ( CKY や inside- outside )が使える気が してくる!
  34. © 2010 IBM Corporation IBM Research - Tokyo 35 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 Eisner 法を数式で書いてみる C(s, e) = maxk (C(s, k) + I(k, e)) I(s, e) = S(s, e) + maxk (C(k, s) + C(k+1, e)) –ただし, S(s, e) は s が e に係ることに対するスコア 上記再帰式をメモ化すれば OK Complete span Incomplete span
  35. © 2010 IBM Corporation IBM Research - Tokyo 36 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 Eisner 法を擬似コードで書いてみる function comp(s, e): if s = e: return 0 elif (s, e) in comp_cache: return comp_cache[(s, e)] else: m = -INF for k in {s, …, e}: m = max(m, comp(s, k) + incomp(s, k)) return comp_cache[(s, e)] = m function incomp(s, e): if (s, e) in incomp_cache: return incomp_cache[(s, e)] else: m = -INF for k in {s, …, e-1}: m = max(m, S(s, e) + comp(k, s) + comp(k+1, e)) return incomp_cache[(s, e)] = m
  36. © 2010 IBM Corporation IBM Research - Tokyo 37 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 N ベスト出力 [Jimenez&Marzal2000] スコアの高い上位 N 件を出力したい 元の論文は PCFG を N-best 化する方法
  37. © 2010 IBM Corporation IBM Research - Tokyo 38 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 ソート済み配列の足し算 ソート済み配列の足 し算をソートする priority queue を使 えば簡単に実現でき る 3 5 7 10 1 6 10 12 2 8 10 13 4 12 14 17 8 14 16 19 10 4 6 9 19 17 16 14 13 14 12 12 10
  38. © 2010 IBM Corporation IBM Research - Tokyo 39 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 CKY も Eisner も足し算の塊 (1/2) C(0, 4) + k=1 + k=2 + k=3 C(0,1) I(1,4) C(0,2) I(2,4) C(0,3) I(3,4) + k=4 C(0,4) I(4,4) 1, 1 1, 1 1, 1 1, 1 C(s, e) = maxk (C(s, k) + I(k, e)) 1 1 1 1 番目の候補を探す C(0, 1) の 1 番目, I(1, 4) の 1 番目の意 これが best 再帰的に計算する
  39. © 2010 IBM Corporation IBM Research - Tokyo 40 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 CKY も Eisner も足し算の塊 (2/2) C(0, 4) + k=1 + k=2 + k=3 C(0,1) I(1,4) C(0,2) I(2,4) C(0,3) I(3,4) + k=4 C(0,4) I(4,4) 1, 1 1, 1 1, 1 2, 1 1, 2 C(s, e) = maxk (C(s, k) + I(k, e)) 2 1 2 2 番目の候補を探す 隣接候補を追加 これが 2 番 再帰的に計算する( I(2,4) は 2 番目を探す)
  40. © 2010 IBM Corporation IBM Research - Tokyo 41 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 Higher order Eisner 以上は 1st order Eisner と呼ばれる –1st order とは,係り元と係り先しか見ない より多くの依存関係を同時に見たくなる –2nd order • 同じ係り先の兄弟 –3rd order • 祖父と親と子,あるいは親と子の兄弟 –いずれも多項式時間で実現できる
  41. © 2010 IBM Corporation IBM Research - Tokyo 42 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 2nd order Eisner 兄弟に関する制約や素性を追加したい –例えば同じ格助詞を持つ文節は兄弟にしたくない 以下のノードを追加すると解決する 1st order 2nd order
  42. © 2010 IBM Corporation IBM Research - Tokyo 43 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 2nd order Eisner を直感的に理解する 木をたどる操作には 2 種類ある 1. 子ノードに遷移する 2. 兄弟ノードを遷移する 1st order は,いわば 2 を 1 で無理やり表現したため, 兄弟間の素性を設計できない 2nd order では 2 を直接表現しているため,兄弟間 の素性を設計できる 今日, 私は NLP の 発表を した。 1 2
  43. © 2010 IBM Corporation IBM Research - Tokyo 44 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 2nd order Eisner を絵で理解する 1st order 2nd order (((w1, w2), w3), w4) 雰囲気としては car,cdr のような感じ w 1 w 2 w 3 w 4 w 1 w 2 w 3 w 4 兄弟関係を直接表現するノードがない
  44. © 2010 IBM Corporation IBM Research - Tokyo 45 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 3rd order Eisner [Koo&Colins2010] 親子だけではなくて孫も同時に見たい –uni-gram から bi-gram にする感覚 親子と同時に子の兄弟も見たい –親と兄弟の 3 項関係 T. Koo and M. Collins, Efficient third-order dependency parsers. ACL 2010. 祖父を見ている 親と兄弟を同時に 見ている
  45. © 2010 IBM Corporation IBM Research - Tokyo 46 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 1st, 2nd, 3rd の比較 1st order 親子のみ 2nd order 兄弟を追加 3rd order 祖父,親,孫を追加 親,兄弟を追加 表現できる素性がだんだん増えている
  46. © 2010 IBM Corporation IBM Research - Tokyo 47 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 他の手法 簡単な紹介だけ MST ILP
  47. © 2010 IBM Corporation IBM Research - Tokyo 48 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 MST パーザー 最大全域木( Maximum Spanning Tree )アルゴリズ ムを使う 詳しく紹介しないが,現在主流の手法の一つ
  48. © 2010 IBM Corporation IBM Research - Tokyo 49 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 MST パーザーの特徴 [McDonald05] 最大全域木( Maximum Spanning Tree )アルゴリズムを使う 利点 –大域最適である –解析時の計算量が O(n2) と意外と小さい –交差を自然に解いてくれる 欠点 –直接の係り関係しか使えない –2nd order 以上になると NP hard This is a pen
  49. © 2010 IBM Corporation IBM Research - Tokyo 50 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 ILP (Integer Linear Programming) パー ザーの特徴 [Riedel&Clarke06, Martins+09] MST パーザーのスコアを線形の目的関数にする 「木である」条件をがんばって整数の線形式で書き表す 線形式の制約による,線形目的関数の最大化問題 線形式で書けさえすれば,大域的なスコアを目的関数 に入れたり,大域的な制約を入れられる 線形整数計画問題で解ける!
  50. © 2010 IBM Corporation IBM Research - Tokyo 51 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce 法 –Eisner 法 –その他の手法 まとめ
  51. © 2010 IBM Corporation IBM Research - Tokyo 52 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 おさらい 係り受け解析とは? –単語の係り先を当てる問題 –構造を当てる問題なので,候補がたくさんあってタイヘン 主な手法は 2 つの派閥 –局所最適だが大域素性の Transition-based –大域最適だが局所素性の Graph-based 2 つの手法を紹介した –Shift-Reduce 法はスタックを使った方法 –Eisner 法は動的計画法を使った方法
  52. © 2010 IBM Corporation IBM Research - Tokyo 53 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 使ってみよう 日本語 –KNP (@ 黒橋研 ) •http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/knp.html • ルールベース –CaboCha ( 工藤さん ) •http://chasen.org/~taku/software/cabocha/ •Cascaded Chunking Model 英語 –MSTParser (R. McDonald) •http://sourceforge.net/projects/mstparser/ •MST, Eisner –MaltParser (J. Nivre) •http://maltparser.org/ •Shift-Reduce
  53. © 2010 IBM Corporation IBM Research - Tokyo 54 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 ご清聴ありがとうございました
  54. © 2010 IBM Corporation IBM Research - Tokyo 55 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 参考文献 Shift-Reduce – [Nivre03] J. Nivre, An Efficient Algorithm for Projective Dependency Parsing. IWPT 003. – [Yamada&Matsumoto03] H. Yamada and Y. Matsumoto, Statistical Dependency Analysis with Support Vector Machines. IWPT 2003. – [Nivre04] J. Nivre, Incrementality in Deterministic Dependency Parsing. Workshop on Incremental Parsing 2004. – [Nivre09] J. Nivre, Non-Projective Dependency Parsing in Expected Linear Time. ACL-IJCNLP 2009. Eisner – [Eisner96] J. M. Eisner, Three New Probabilistic Models for Dependency Parsing: An Exploration. COLING 1996. – [Jimenez&Marzal01] V. Jimenez and A. Marzel, Computation of the N best parse trees for weighted and stochastic context-free grammars. Advances in Pattern Recognition. – [Koo&Colins10] T. Koo and M. Collins, Efficient third-order dependency parsers. ACL 2010.
  55. © 2010 IBM Corporation IBM Research - Tokyo 56 自然言語処理勉強会

    @ 東京 第 3 回 2010/11/07 参考文献 MST –[McDonald+05] R. McDonald, F. Pereira, K. Ribarov and J. Hajic, Non-projective Dependency Parsing using Spanning Tree Algorithms. f HLT-EMNLP 2005. ILP –[Riedel&Clarke06] S. Riedel and J. Clarke, Incremental Integer Linear Programming for Non-projective Dependency Parsing. EMNLP 2006. –[Martins et.al.09] A. F. T. Martins, N. A. Smith and E. P. Xing, Concise Integer Linear Programming Formulations for Dependency Parsing. ACL-IJCNLP 2009. その他 –[ 工藤 & 松本 04] 工藤 拓 , 松本 裕治 . 相対的 相対的 相対的 相対的な な な な係 係 係 係りやすさを りやすさを りやすさを りやすさを考慮 考慮 考慮 考慮した した した した日本 日本 日本 日本 語係 語係 語係 語係り り り り受 受 受 受け け け け解析 解析 解析 解析モデル モデル モデル モデル . SIGNL-162, 2004.