Lock in $30 Savings on PRO—Offer Ends Soon! ⏳
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Hierarchical Recurrent Attention Network f...
Search
shu_suzuki
March 25, 2019
Technology
0
230
文献紹介:Hierarchical Recurrent Attention Network for Response Generation
長岡技術科学大学
自然言語処理研究室
鈴木脩右
shu_suzuki
March 25, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
190
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
83
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
340
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
160
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
76
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
210
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
120
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
69
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
210
Other Decks in Technology
See All in Technology
AgentCore BrowserとClaude Codeスキルを活用した 『初手AI』を実現する業務自動化AIエージェント基盤
ruzia
4
220
NIKKEI Tech Talk #41: セキュア・バイ・デザインからクラウド管理を考える
sekido
PRO
0
180
【U/Day Tokyo 2025】Cygames流 最新スマートフォンゲームの技術設計 〜『Shadowverse: Worlds Beyond』におけるアーキテクチャ再設計の挑戦~
cygames
PRO
2
950
Database イノベーショントークを振り返る/reinvent-2025-database-innovation-talk-recap
emiki
0
240
Strands Agents × インタリーブ思考 で変わるAIエージェント設計 / Strands Agents x Interleaved Thinking AI Agents
takanorig
4
1.2k
ウェルネス SaaS × AI、1,000万ユーザーを支える 業界特化 AI プロダクト開発への道のり
hacomono
PRO
0
280
障害対応訓練、その前に
coconala_engineer
0
140
JEDAI認定プログラム JEDAI Order 2026 エントリーのご案内 / JEDAI Order 2026 Entry
databricksjapan
0
150
S3を正しく理解するための内部構造の読解
nrinetcom
PRO
3
210
フィッシュボウルのやり方 / How to do a fishbowl
pauli
2
280
日本Rubyの会: これまでとこれから
snoozer05
PRO
5
200
2025-12-18_AI駆動開発推進プロジェクト運営について / AIDD-Promotion project management
yayoi_dd
0
140
Featured
See All Featured
Automating Front-end Workflow
addyosmani
1371
200k
The Curious Case for Waylosing
cassininazir
0
190
Discover your Explorer Soul
emna__ayadi
2
1k
The Art of Programming - Codeland 2020
erikaheidi
56
14k
Easily Structure & Communicate Ideas using Wireframe
afnizarnur
194
17k
Sam Torres - BigQuery for SEOs
techseoconnect
PRO
0
130
What the history of the web can teach us about the future of AI
inesmontani
PRO
0
370
Statistics for Hackers
jakevdp
799
230k
Un-Boring Meetings
codingconduct
0
160
The Illustrated Guide to Node.js - THAT Conference 2024
reverentgeek
0
210
The Psychology of Web Performance [Beyond Tellerrand 2023]
tammyeverts
49
3.2k
GraphQLの誤解/rethinking-graphql
sonatard
73
11k
Transcript
文献紹介 Hierarchical Recurrent Attention Network for Response Generation 鈴木脩右 2019/3/25
長岡技術科学大学 自然言語処理研究室 1
Reference [1] Chen Xing, Yu Wu, Wei Wu, Yalou Huang,
and Ming Zhou. Hierarchical Recurrent Attention Network for Response Generation. In Thirty-Second AAAI Conference on Artificial Intelligence, April 2018. 2
Abstract • 雑談対話システムによるマルチターンでの応答生成に関す る研究 • 既存の階層モデルでは,重要な情報を失う可能性がある • 本研究では Hierarchical Recurrent
Attention Network (HRAN) を提案 • 自動評価と人的評価で既存手法よりも優れていることを示 した 3
Introduction • 雑談対話システムにおいて, Encoder-Decoder モデルが一般的 • 会話の文脈を考慮しないため, マルチターンでの応答には不向き • HRED
と VHRED(Serban ら.2016) 階層構造により,文脈を考慮 • 文脈中の重要部分を考慮してい ない • 階層的に Attention を導入し, 重要部分を注視 Figure 1: An example of multi-turn conversation[1] 4
提案モデル Figure 2: Hierarchical Recurrent Attention Network[1] 5
データセット • SNS から1対1の約 166 万対話を抽出 • トレーニングデータ:100 万 •
バリデーションデータ:1 万 • テストデータ:1000 6
ベースライン • S2SA:seq2seq+Attention • HRED:Hierarchical Recurrent Encoder Decoder • VHRED:HRED
に VAE を組み合わせたもの 7
自動評価 perplexity Table 1: Perplexity results[1] 8
人的評価 • HRAN とベースライン (いず れか 1 つ) のどちらが良いか 比較
• 3 人のアノテーターが評価 • アノテーター間の一致度 は,Fleiss’ kappa で算出 Table 2: Human annotation results[1] 9
Attentionの可視化 Figure 3: Attention visualization.[1] 10
Conculusion • マルチターン応答生成のための HRAN を提案 • 自動評価と人的評価で HRAN が既存モデルを大幅に上回る ことを確認
11