Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Multi-Task Deep Neural Networks for Natura...
Search
shu_suzuki
February 14, 2019
Technology
0
230
文献紹介:Multi-Task Deep Neural Networks for Natural Language Understanding
長岡技術科学大学
自然言語処理研究室
鈴木脩右
第6回B3ゼミ発表資料
shu_suzuki
February 14, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
200
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
86
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
360
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
180
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
80
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
220
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
130
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
75
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
220
Other Decks in Technology
See All in Technology
BFCacheを活用して無限スクロールのUX を改善した話
apple_yagi
0
130
AgentCoreとLINEを使った飲食店おすすめアプリを作ってみた
yakumo
2
260
夢の無限スパゲッティ製造機 #phperkaigi
o0h
PRO
0
390
【AWS】CloudTrail LakeとCloudWatch Logs Insightsの使い分け方針
tsurunosd
0
120
Kiro Meetup #7 Kiro アップデート (2025/12/15〜2026/3/20)
katzueno
2
270
ブラックボックス化したMLシステムのVertex AI移行 / mlops_community_62
visional_engineering_and_design
1
230
パワポ作るマンをMCP Apps化してみた
iwamot
PRO
0
220
Cursor Subagentsはいいぞ
yug1224
2
110
VSCode中心だった自分がターミナル沼に入門した話
sanogemaru
0
840
来期の評価で変えようと思っていること 〜AI時代に変わること・変わらないこと〜
estie
0
110
GitHub Copilot CLI で Azure Portal to Bicep
tsubakimoto_s
0
290
MIX AUDIO EN BROADCAST
ralpherick
0
120
Featured
See All Featured
The Organizational Zoo: Understanding Human Behavior Agility Through Metaphoric Constructive Conversations (based on the works of Arthur Shelley, Ph.D)
kimpetersen
PRO
0
280
Automating Front-end Workflow
addyosmani
1370
200k
How to audit for AI Accessibility on your Front & Back End
davetheseo
0
230
jQuery: Nuts, Bolts and Bling
dougneiner
66
8.4k
Creating an realtime collaboration tool: Agile Flush - .NET Oxford
marcduiker
35
2.4k
AI: The stuff that nobody shows you
jnunemaker
PRO
4
500
Public Speaking Without Barfing On Your Shoes - THAT 2023
reverentgeek
1
350
Responsive Adventures: Dirty Tricks From The Dark Corners of Front-End
smashingmag
254
22k
How to Build an AI Search Optimization Roadmap - Criteria and Steps to Take #SEOIRL
aleyda
1
2k
Marketing Yourself as an Engineer | Alaka | Gurzu
gurzu
0
170
The Spectacular Lies of Maps
axbom
PRO
1
650
The SEO identity crisis: Don't let AI make you average
varn
0
430
Transcript
Multi-Task Deep Neural Networks for Natural Language Understanding 鈴木脩右 2019/2/14
長岡技術科学大学 自然言語処理研究室 1
目次 概要 背景 MT-DNN モデル 実験タスク 実験結果 まとめ 2
概要
概要 • MT-DNN(Multi-Task Deep Neural Network) というモデルを 提案 • 複数の言語理解
(NLU) タスクにわたり,言語表現を学習 • 10 個の NLU タスクで SotA を達成 • 少ないトレーニングデータで高い精度を示した 3
背景
背景 • NLU タスクには 2 つのアプローチがある • Multi-Task Learning (MTL)
• Laguage Model Pre-traning • MT-DNN は両方の強みを併せることを目指した 4
Multi-Task Learning (MTL) • 別のタスクで得た知識を他のタスクにも利用 • 多くの関連タスクから教師データを効果的に活用できる • 学習した言語表現をタスク全体で普遍的に用いることがで きる
5
Laguage Model Pre-traning • 教師なしデータで言語表現を事前学習 • モデルの微調整をし,追加学習することで別タスクに適用 できる • 例として,BERT,ELMo
が挙げられる 6
MT-DNNモデル
MT-DNNモデル Figure 1: Architecture of the MT-DNN model for representation
learning.[1] 7
実験タスク
実験タスク i 1. Single-Sentence Classification 1 つの文で判定するタスク 2. Text Similarity
2 つの文が表す感情が類似しているか判定するタスク 3. Pairwise Text Classification 2 つの文の含意や,意味が一致するか判定するタスク 4. Relevance Ranking 質問応答タスク 8
実験タスク ii Table 1: Summary of the three benchmarks: GLUE,
SNLI and SciTail.[1] 9
実験結果
実験結果 i Table 2: GLUE test set results, which are
scored by the GLUE evaluation server.[1] 10
実験結果 ii Table 3: Results on the SNLI and SciTail
dataset.[1] 11
実験結果 iii Figure 2: Domain adaption results on SNLI and
Sci-Tail.[1] Table 4: Domain adaptation results on SNLI and Scitail.[1] 12
まとめ
まとめ • Multi-Task Learning (MTL) と Laguage Model Pre-traning を
組み合わせ,MT-DNN の言語表現を学習した • 幅広いタスクで高い成果を出した • MTL のモデル構造の理解を深めることで,MT-DNN を改善で きると考えられる 13
参考文献 [1] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng
Gao. Multi-Task Deep Neural Networks for Natural Language Understanding. arXiv:1901.11504 [cs], January 2019. 14