Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Hierarchical Recurrent Attention Network f...
Search
shu_suzuki
March 25, 2019
Technology
0
230
文献紹介:Hierarchical Recurrent Attention Network for Response Generation
長岡技術科学大学
自然言語処理研究室
鈴木脩右
shu_suzuki
March 25, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
190
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
83
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
340
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
160
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
76
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
210
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
120
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
69
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
210
Other Decks in Technology
See All in Technology
2025年の医用画像AI/AI×medical_imaging_in_2025_generated_by_AI
tdys13
0
300
Oracle Database@AWS:サービス概要のご紹介
oracle4engineer
PRO
2
670
1万人を変え日本を変える!!多層構造型ふりかえりの大規模組織変革 / 20260108 Kazuki Mori
shift_evolve
PRO
5
710
AI との良い付き合い方を僕らは誰も知らない (WSS 2026 静岡版)
asei
1
220
All About Sansan – for New Global Engineers
sansan33
PRO
1
1.3k
AWS re:Invent 2025 を振り返る
kazzpapa3
2
110
_第4回__AIxIoTビジネス共創ラボ紹介資料_20251203.pdf
iotcomjpadmin
0
170
戰略轉變:從建構 AI 代理人到發展可擴展的技能生態系統
appleboy
0
180
テストセンター受験、オンライン受験、どっちなんだい?
yama3133
0
200
Node vs Deno vs Bun 〜推しランタイムを見つけよう〜
kamekyame
1
210
田舎で20年スクラム(後編):一個人が企業で長期戦アジャイルに挑む意味
chinmo
1
1.1k
AWS re:Invent2025最新動向まとめ(NRIグループre:Cap 2025)
gamogamo
0
150
Featured
See All Featured
What's in a price? How to price your products and services
michaelherold
246
13k
The Art of Programming - Codeland 2020
erikaheidi
56
14k
Exploring the Power of Turbo Streams & Action Cable | RailsConf2023
kevinliebholz
37
6.2k
The innovator’s Mindset - Leading Through an Era of Exponential Change - McGill University 2025
jdejongh
PRO
1
74
RailsConf 2023
tenderlove
30
1.3k
Jamie Indigo - Trashchat’s Guide to Black Boxes: Technical SEO Tactics for LLMs
techseoconnect
PRO
0
36
Reality Check: Gamification 10 Years Later
codingconduct
0
2k
What’s in a name? Adding method to the madness
productmarketing
PRO
24
3.9k
Mobile First: as difficult as doing things right
swwweet
225
10k
How People are Using Generative and Agentic AI to Supercharge Their Products, Projects, Services and Value Streams Today
helenjbeal
1
94
Code Reviewing Like a Champion
maltzj
527
40k
Ecommerce SEO: The Keys for Success Now & Beyond - #SERPConf2024
aleyda
1
1.8k
Transcript
文献紹介 Hierarchical Recurrent Attention Network for Response Generation 鈴木脩右 2019/3/25
長岡技術科学大学 自然言語処理研究室 1
Reference [1] Chen Xing, Yu Wu, Wei Wu, Yalou Huang,
and Ming Zhou. Hierarchical Recurrent Attention Network for Response Generation. In Thirty-Second AAAI Conference on Artificial Intelligence, April 2018. 2
Abstract • 雑談対話システムによるマルチターンでの応答生成に関す る研究 • 既存の階層モデルでは,重要な情報を失う可能性がある • 本研究では Hierarchical Recurrent
Attention Network (HRAN) を提案 • 自動評価と人的評価で既存手法よりも優れていることを示 した 3
Introduction • 雑談対話システムにおいて, Encoder-Decoder モデルが一般的 • 会話の文脈を考慮しないため, マルチターンでの応答には不向き • HRED
と VHRED(Serban ら.2016) 階層構造により,文脈を考慮 • 文脈中の重要部分を考慮してい ない • 階層的に Attention を導入し, 重要部分を注視 Figure 1: An example of multi-turn conversation[1] 4
提案モデル Figure 2: Hierarchical Recurrent Attention Network[1] 5
データセット • SNS から1対1の約 166 万対話を抽出 • トレーニングデータ:100 万 •
バリデーションデータ:1 万 • テストデータ:1000 6
ベースライン • S2SA:seq2seq+Attention • HRED:Hierarchical Recurrent Encoder Decoder • VHRED:HRED
に VAE を組み合わせたもの 7
自動評価 perplexity Table 1: Perplexity results[1] 8
人的評価 • HRAN とベースライン (いず れか 1 つ) のどちらが良いか 比較
• 3 人のアノテーターが評価 • アノテーター間の一致度 は,Fleiss’ kappa で算出 Table 2: Human annotation results[1] 9
Attentionの可視化 Figure 3: Attention visualization.[1] 10
Conculusion • マルチターン応答生成のための HRAN を提案 • 自動評価と人的評価で HRAN が既存モデルを大幅に上回る ことを確認
11