Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Hierarchical Recurrent Attention Network f...
Search
shu_suzuki
March 25, 2019
Technology
0
220
文献紹介:Hierarchical Recurrent Attention Network for Response Generation
長岡技術科学大学
自然言語処理研究室
鈴木脩右
shu_suzuki
March 25, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
170
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
77
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
310
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
160
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
70
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
200
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
110
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
62
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
210
Other Decks in Technology
See All in Technology
Agentic DevOps時代の生存戦略
kkamegawa
0
750
Amazon ECS & AWS Fargate 運用アーキテクチャ2025 / Amazon ECS and AWS Fargate Ops Architecture 2025
iselegant
13
3.7k
TechLION vol.41~MySQLユーザ会のほうから来ました / techlion41_mysql
sakaik
0
130
JSX - 歴史を振り返り、⾯⽩がって、エモくなろう
pal4de
3
1k
Welcome to the LLM Club
koic
0
110
Uniadex__公開版_20250617-AIxIoTビジネス共創ラボ_ツナガルチカラ_.pdf
iotcomjpadmin
0
140
vLLM meetup Tokyo
jpishikawa
1
270
米国国防総省のDevSecOpsライフサイクルをAWSのセキュリティサービスとOSSで実現
syoshie
2
620
Navigation3でViewModelにデータを渡す方法
mikanichinose
0
190
【TiDB GAME DAY 2025】Shadowverse: Worlds Beyond にみる TiDB 活用術
cygames
0
390
IAMのマニアックな話 2025を執筆して、 見えてきたAWSアカウント管理の現在
nrinetcom
PRO
4
630
BrainPadプログラミングコンテスト記念LT会2025_社内イベント&問題解説
brainpadpr
0
110
Featured
See All Featured
Raft: Consensus for Rubyists
vanstee
140
7k
Stop Working from a Prison Cell
hatefulcrawdad
269
20k
The Art of Delivering Value - GDevCon NA Keynote
reverentgeek
15
1.5k
Statistics for Hackers
jakevdp
799
220k
No one is an island. Learnings from fostering a developers community.
thoeni
21
3.3k
Templates, Plugins, & Blocks: Oh My! Creating the theme that thinks of everything
marktimemedia
31
2.4k
GitHub's CSS Performance
jonrohan
1031
460k
Java REST API Framework Comparison - PWX 2021
mraible
31
8.6k
Keith and Marios Guide to Fast Websites
keithpitt
411
22k
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
52
2.8k
Being A Developer After 40
akosma
90
590k
A Modern Web Designer's Workflow
chriscoyier
693
190k
Transcript
文献紹介 Hierarchical Recurrent Attention Network for Response Generation 鈴木脩右 2019/3/25
長岡技術科学大学 自然言語処理研究室 1
Reference [1] Chen Xing, Yu Wu, Wei Wu, Yalou Huang,
and Ming Zhou. Hierarchical Recurrent Attention Network for Response Generation. In Thirty-Second AAAI Conference on Artificial Intelligence, April 2018. 2
Abstract • 雑談対話システムによるマルチターンでの応答生成に関す る研究 • 既存の階層モデルでは,重要な情報を失う可能性がある • 本研究では Hierarchical Recurrent
Attention Network (HRAN) を提案 • 自動評価と人的評価で既存手法よりも優れていることを示 した 3
Introduction • 雑談対話システムにおいて, Encoder-Decoder モデルが一般的 • 会話の文脈を考慮しないため, マルチターンでの応答には不向き • HRED
と VHRED(Serban ら.2016) 階層構造により,文脈を考慮 • 文脈中の重要部分を考慮してい ない • 階層的に Attention を導入し, 重要部分を注視 Figure 1: An example of multi-turn conversation[1] 4
提案モデル Figure 2: Hierarchical Recurrent Attention Network[1] 5
データセット • SNS から1対1の約 166 万対話を抽出 • トレーニングデータ:100 万 •
バリデーションデータ:1 万 • テストデータ:1000 6
ベースライン • S2SA:seq2seq+Attention • HRED:Hierarchical Recurrent Encoder Decoder • VHRED:HRED
に VAE を組み合わせたもの 7
自動評価 perplexity Table 1: Perplexity results[1] 8
人的評価 • HRAN とベースライン (いず れか 1 つ) のどちらが良いか 比較
• 3 人のアノテーターが評価 • アノテーター間の一致度 は,Fleiss’ kappa で算出 Table 2: Human annotation results[1] 9
Attentionの可視化 Figure 3: Attention visualization.[1] 10
Conculusion • マルチターン応答生成のための HRAN を提案 • 自動評価と人的評価で HRAN が既存モデルを大幅に上回る ことを確認
11