Upgrade to Pro — share decks privately, control downloads, hide ads and more …

saisentan-nlp(hiraoka)

tatHi
September 28, 2019

 saisentan-nlp(hiraoka)

Learning to Discover, Ground and Use Words with Segmental Neural Language Models
Kazuya Kawakami, Chris Dyer, Phil Blunsom
ACL2019

tatHi

September 28, 2019
Tweet

More Decks by tatHi

Other Decks in Science

Transcript

  1. Learning to Discover, Ground and Use Words with Segmental Neural

    Language Models Kazuya Kawakami, Chris Dyer, Phil Blunsom. ACL2019 Presenter: Tatsuya Hiraoka (D1) Okazaki lab. TokyoTech 2019/9/28 最先端NLP2019 1
  2. 教師なし単語分割 • 中国語などの⾔語の単語分割を教師なしで求める • ⽂字列の尤もらしい分割argmax | を⾒つける • : a

    character sequence (a, n, a, p, p, l, e) • : a segment sequence (an, ap, ple) • 分割の尤もらしさを⾔語モデルで計算 • その分割に含まれる単語の確率 = + ,∈ ~ argmax | 2019/9/28 最先端NLP2019 4
  3. 教師なし単語分割 • 中国語などの⾔語の単語分割を教師なしで求める • ⽂字列の尤もらしい分割argmax | を⾒つける • : a

    character sequence (a, n, a, p, p, l, e) • : a segment sequence (an, ap, ple) • 分割の尤もらしさを⾔語モデルで計算 • その分割に含まれる単語の確率 = + ,∈ ~ argmax | 2019/9/28 最先端NLP2019 5 • ⾔語モデルの性能が良いほど,分割性能が良い • 教師なし単語分割が⾔語モデルに求める性質 • ありうる全ての⽂字列に確率を与えることができる
  4. ⾔語モデル Predict next segment from character-context Lexical Memory コーパスに含まれるM個の “単語”

    には 固有のベクトルを与える →この “単語” は通常のsoftmaxで確率を計算できる →含まれない “単語” の確率は0 ある⽂字列がベクトルを持てる条件: (1) ⻑さ2以上,L以下 (2) データセットで最低F回使⽤されている L,Fはハイパラ 2019/9/28 最先端NLP2019 9
  5. Learning • あらゆる分割の周辺確率を最⼤化 ℒ = − J ∈K log •

    ⽂字列のあらゆる可能な分割による “単語”列を列挙 = J :M N () • DPで求められる P = 1, Q = J RNQST QSU R = R:Q|VR QWU = EOS = QWU can ca c y ny any 2019/9/28 最先端NLP2019 11
  6. Learning • あらゆる分割の周辺確率を最⼤化 ℒ = − J ∈K log •

    ⽂字列のあらゆる可能な分割による “単語”列を列挙 = J :M N () • DPで求められる P = 1, Q = J RNQST QSU R = R:Q|VR QWU = EOS = QWU can ca c y ny any 2019/9/28 最先端NLP2019 12 ⻑い単語の確率が⾼くなって終了
  7. Learning • あらゆる分割の周辺確率を最⼤化 ℒ = J ∈K − log +

    , • ⽂字列xのあらゆる可能な分割による “単語”列を列挙 = J :M N () • ⻑い単語にペナルティ • その分割の確率で重み付け • はハイパラ • ⼤きいほど短い “単語”が 出やすくなる , = J :M N | J ∈ _ はハイパラ 2019/9/28 最先端NLP2019 13
  8. Experiment(1) • 教師なし単語分割 • 英語⾳素 • わかること • Lexical memory機構

    lengthペナルティの両⽅が必要 2019/9/28 最先端NLP2019 14
  9. Experiment(1) • 教師なし単語分割 • 英語⾳素 • わかること • Lexical memory機構

    lengthペナルティの両⽅が必要 2019/9/28 最先端NLP2019 15
  10. Experiment(1) • 教師なし単語分割 • 英語⾳素 • わかること • Lexical memory機構

    lengthペナルティの両⽅が必要 2019/9/28 最先端NLP2019 16
  11. Experiment(1) • 教師なし単語分割 • 英語⾳素 • わかること • Lexical memory機構

    lengthペナルティの両⽅が必要 (階層)ディリクレ過程 を⽤いた教師なし単語分割 (Goldwater+, 2009) 2019/9/28 最先端NLP2019 17
  12. Experiment(1) • 教師なし単語分割 • 英語⾳素 • わかること • Lexical memory機構

    lengthペナルティの両⽅が必要 2019/9/28 最先端NLP2019 18
  13. Experiment(2) • 教師なし単語分割 • 英語(BR-text) • スペース除去 • 中国語 •

    指標としてよく使われる • わかること • 弱いベースラインより強い 2019/9/28 最先端NLP2019 19
  14. Experiment(2) SLM-4(Sun+, 2018) 79.2 • 教師なし単語分割 • 英語(BR-text) • スペース除去

    • 中国語 • 指標としてよく使われる • わかること • 弱いベースラインより強い 2019/9/28 最先端NLP2019 20
  15. Experiment(2) SLM-4(Sun+, 2018) 79.2 • 教師なし単語分割 • 英語(BR-text) • スペース除去

    • 中国語 • 指標としてよく使われる • わかること • 弱いベースラインより強い PYHSMM(Uchiumi+, 2015) 81.6 2019/9/28 最先端NLP2019 21
  16. Experiment(3) • 画像を使った学習 • MS COCOのcaptionと画像で ⾔語モデルを学習 • どう使っているのかは不明 •

    LSTMのinit hidden stateなどか • わかること • 画像を使うと分割・⾔語モデル の性能向上(?) 2019/9/28 最先端NLP2019 22