Upgrade to Pro — share decks privately, control downloads, hide ads and more …

文献紹介:Hierarchical Recurrent Attention Network for Response Generation

文献紹介:Hierarchical Recurrent Attention Network for Response Generation

長岡技術科学大学
自然言語処理研究室
鈴木脩右

shu_suzuki

March 25, 2019
Tweet

More Decks by shu_suzuki

Other Decks in Technology

Transcript

  1. Reference [1] Chen Xing, Yu Wu, Wei Wu, Yalou Huang,

    and Ming Zhou. Hierarchical Recurrent Attention Network for Response Generation. In Thirty-Second AAAI Conference on Artificial Intelligence, April 2018. 2
  2. Introduction • 雑談対話システムにおいて, Encoder-Decoder モデルが一般的 • 会話の文脈を考慮しないため, マルチターンでの応答には不向き • HRED

    と VHRED(Serban ら.2016) 階層構造により,文脈を考慮 • 文脈中の重要部分を考慮してい ない • 階層的に Attention を導入し, 重要部分を注視 Figure 1: An example of multi-turn conversation[1] 4
  3. 人的評価 • HRAN とベースライン (いず れか 1 つ) のどちらが良いか 比較

    • 3 人のアノテーターが評価 • アノテーター間の一致度 は,Fleiss’ kappa で算出 Table 2: Human annotation results[1] 9