Upgrade to Pro — share decks privately, control downloads, hide ads and more …

文献紹介:Multi-Task Deep Neural Networks for Natural Language Understanding

shu_suzuki
February 14, 2019

文献紹介:Multi-Task Deep Neural Networks for Natural Language Understanding

長岡技術科学大学
自然言語処理研究室
鈴木脩右
第6回B3ゼミ発表資料

shu_suzuki

February 14, 2019
Tweet

More Decks by shu_suzuki

Other Decks in Technology

Transcript

  1. 概要 • MT-DNN(Multi-Task Deep Neural Network) というモデルを 提案 • 複数の言語理解

    (NLU) タスクにわたり,言語表現を学習 • 10 個の NLU タスクで SotA を達成 • 少ないトレーニングデータで高い精度を示した 3
  2. 背景 • NLU タスクには 2 つのアプローチがある • Multi-Task Learning (MTL)

    • Laguage Model Pre-traning • MT-DNN は両方の強みを併せることを目指した 4
  3. 実験タスク i 1. Single-Sentence Classification 1 つの文で判定するタスク 2. Text Similarity

    2 つの文が表す感情が類似しているか判定するタスク 3. Pairwise Text Classification 2 つの文の含意や,意味が一致するか判定するタスク 4. Relevance Ranking 質問応答タスク 8
  4. 実験結果 i Table 2: GLUE test set results, which are

    scored by the GLUE evaluation server.[1] 10
  5. 実験結果 iii Figure 2: Domain adaption results on SNLI and

    Sci-Tail.[1] Table 4: Domain adaptation results on SNLI and Scitail.[1] 12
  6. まとめ • Multi-Task Learning (MTL) と Laguage Model Pre-traning を

    組み合わせ,MT-DNN の言語表現を学習した • 幅広いタスクで高い成果を出した • MTL のモデル構造の理解を深めることで,MT-DNN を改善で きると考えられる 13
  7. 参考文献 [1] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng

    Gao. Multi-Task Deep Neural Networks for Natural Language Understanding. arXiv:1901.11504 [cs], January 2019. 14