Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Hierarchical Recurrent Attention Network f...
Search
Sponsored
·
SiteGround - Reliable hosting with speed, security, and support you can count on.
→
shu_suzuki
March 25, 2019
Technology
0
230
文献紹介:Hierarchical Recurrent Attention Network for Response Generation
長岡技術科学大学
自然言語処理研究室
鈴木脩右
shu_suzuki
March 25, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
200
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
86
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
360
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
180
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
80
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
220
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
130
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
75
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
220
Other Decks in Technology
See All in Technology
なぜarray_firstとarray_lastは採用、 array_value_firstとarray_value_lastは 見送りだったか / Why array_value_first and array_value_last was declined, then why array_first and array_last was accpeted?
cocoeyes02
0
260
夢の無限スパゲッティ製造機 #phperkaigi
o0h
PRO
0
390
AWS Systems Managerのハイブリッドアクティベーションを使用したガバメントクラウド環境の統合管理
toru_kubota
1
190
タスク管理も1on1も、もう「管理」じゃない - KiroとBedrock AgentCoreで変わった“判断の仕事”
yusukeshimizu
0
140
非同期・イベント駆動処理の分散トレーシングの繋げ方
ichikawaken
1
210
ThetaOS - A Mythical Machine comes Alive
aslander
0
210
イベントで大活躍する電子ペーパー名札を作る(その2) 〜 M5PaperとM5PaperS3 〜 / IoTLT @ JLCPCB オープンハードカンファレンス
you
PRO
0
210
Sansanの認証基盤を支えるアーキテクチャとその振り返り
sansantech
PRO
1
120
Oracle AI Database@Google Cloud:サービス概要のご紹介
oracle4engineer
PRO
5
1.2k
AIにより大幅に強化された AWS Transform Customを触ってみる
0air
0
170
OPENLOGI Company Profile for engineer
hr01
1
61k
開発チームとQAエンジニアの新しい協業モデル -年末調整開発チームで実践する【QAリード施策】-
qa
0
400
Featured
See All Featured
SEO in 2025: How to Prepare for the Future of Search
ipullrank
3
3.4k
Art, The Web, and Tiny UX
lynnandtonic
304
21k
What's in a price? How to price your products and services
michaelherold
247
13k
B2B Lead Gen: Tactics, Traps & Triumph
marketingsoph
0
86
Site-Speed That Sticks
csswizardry
13
1.1k
The Psychology of Web Performance [Beyond Tellerrand 2023]
tammyeverts
49
3.3k
AI Search: Implications for SEO and How to Move Forward - #ShenzhenSEOConference
aleyda
1
1.2k
技術選定の審美眼(2025年版) / Understanding the Spiral of Technologies 2025 edition
twada
PRO
118
110k
Building an army of robots
kneath
306
46k
The SEO Collaboration Effect
kristinabergwall1
0
410
Google's AI Overviews - The New Search
badams
0
950
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
141
35k
Transcript
文献紹介 Hierarchical Recurrent Attention Network for Response Generation 鈴木脩右 2019/3/25
長岡技術科学大学 自然言語処理研究室 1
Reference [1] Chen Xing, Yu Wu, Wei Wu, Yalou Huang,
and Ming Zhou. Hierarchical Recurrent Attention Network for Response Generation. In Thirty-Second AAAI Conference on Artificial Intelligence, April 2018. 2
Abstract • 雑談対話システムによるマルチターンでの応答生成に関す る研究 • 既存の階層モデルでは,重要な情報を失う可能性がある • 本研究では Hierarchical Recurrent
Attention Network (HRAN) を提案 • 自動評価と人的評価で既存手法よりも優れていることを示 した 3
Introduction • 雑談対話システムにおいて, Encoder-Decoder モデルが一般的 • 会話の文脈を考慮しないため, マルチターンでの応答には不向き • HRED
と VHRED(Serban ら.2016) 階層構造により,文脈を考慮 • 文脈中の重要部分を考慮してい ない • 階層的に Attention を導入し, 重要部分を注視 Figure 1: An example of multi-turn conversation[1] 4
提案モデル Figure 2: Hierarchical Recurrent Attention Network[1] 5
データセット • SNS から1対1の約 166 万対話を抽出 • トレーニングデータ:100 万 •
バリデーションデータ:1 万 • テストデータ:1000 6
ベースライン • S2SA:seq2seq+Attention • HRED:Hierarchical Recurrent Encoder Decoder • VHRED:HRED
に VAE を組み合わせたもの 7
自動評価 perplexity Table 1: Perplexity results[1] 8
人的評価 • HRAN とベースライン (いず れか 1 つ) のどちらが良いか 比較
• 3 人のアノテーターが評価 • アノテーター間の一致度 は,Fleiss’ kappa で算出 Table 2: Human annotation results[1] 9
Attentionの可視化 Figure 3: Attention visualization.[1] 10
Conculusion • マルチターン応答生成のための HRAN を提案 • 自動評価と人的評価で HRAN が既存モデルを大幅に上回る ことを確認
11