Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Multi-Task Deep Neural Networks for Natural Language Understanding
Search
shu_suzuki
February 14, 2019
Technology
0
210
文献紹介:Multi-Task Deep Neural Networks for Natural Language Understanding
長岡技術科学大学
自然言語処理研究室
鈴木脩右
第6回B3ゼミ発表資料
shu_suzuki
February 14, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
110
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
59
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
210
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
130
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
46
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
170
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
93
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
52
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
180
Other Decks in Technology
See All in Technology
kcp: Kubernetes APIs Are All You Need #techfeed_live / TechFeed Experts Night 28th
ytaka23
1
190
本当のガバクラ基礎
toru_kubota
0
320
能動学習のいろは:書籍「Human-in-the-Loop機械学習」3〜5章
hiroyoshiito
0
290
AI JIMY - 登壇(インストール編)
hanacchi
0
150
大規模言語モデル (LLM)における低精度数値表現
pfn
PRO
3
810
Password cracking: past, present, future
openwall
0
260
日本が誇るイタリアのダンスミュージック!? ユーロビートって何??
minorun365
PRO
2
200
技術力の伸ばし方を考える
khirata
0
140
エムスリーQAチーム紹介資料 / Introduction of M3 QA Team
m3_engineering
1
320
知識と実践を紡ぐGenAI / Connecting Knowledge and experience with GenAI
aki_moon
2
180
サイボウズ 開発本部採用ピッチ / Cybozu Engineer Recruit
cybozuinsideout
PRO
9
37k
SLOいつ決めましょう?
abnoumaru
3
290
Featured
See All Featured
Robots, Beer and Maslow
schacon
PRO
155
8k
Scaling GitHub
holman
457
140k
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
67
14k
I Don’t Have Time: Getting Over the Fear to Launch Your Podcast
jcasabona
23
1.7k
BBQ
matthewcrist
80
8.8k
GitHub's CSS Performance
jonrohan
1025
450k
[RailsConf 2023] Rails as a piece of cake
palkan
28
4.1k
Teambox: Starting and Learning
jrom
128
8.4k
Docker and Python
trallard
35
2.7k
Code Reviewing Like a Champion
maltzj
515
39k
It's Worth the Effort
3n
180
27k
Web development in the modern age
philhawksworth
203
10k
Transcript
Multi-Task Deep Neural Networks for Natural Language Understanding 鈴木脩右 2019/2/14
長岡技術科学大学 自然言語処理研究室 1
目次 概要 背景 MT-DNN モデル 実験タスク 実験結果 まとめ 2
概要
概要 • MT-DNN(Multi-Task Deep Neural Network) というモデルを 提案 • 複数の言語理解
(NLU) タスクにわたり,言語表現を学習 • 10 個の NLU タスクで SotA を達成 • 少ないトレーニングデータで高い精度を示した 3
背景
背景 • NLU タスクには 2 つのアプローチがある • Multi-Task Learning (MTL)
• Laguage Model Pre-traning • MT-DNN は両方の強みを併せることを目指した 4
Multi-Task Learning (MTL) • 別のタスクで得た知識を他のタスクにも利用 • 多くの関連タスクから教師データを効果的に活用できる • 学習した言語表現をタスク全体で普遍的に用いることがで きる
5
Laguage Model Pre-traning • 教師なしデータで言語表現を事前学習 • モデルの微調整をし,追加学習することで別タスクに適用 できる • 例として,BERT,ELMo
が挙げられる 6
MT-DNNモデル
MT-DNNモデル Figure 1: Architecture of the MT-DNN model for representation
learning.[1] 7
実験タスク
実験タスク i 1. Single-Sentence Classification 1 つの文で判定するタスク 2. Text Similarity
2 つの文が表す感情が類似しているか判定するタスク 3. Pairwise Text Classification 2 つの文の含意や,意味が一致するか判定するタスク 4. Relevance Ranking 質問応答タスク 8
実験タスク ii Table 1: Summary of the three benchmarks: GLUE,
SNLI and SciTail.[1] 9
実験結果
実験結果 i Table 2: GLUE test set results, which are
scored by the GLUE evaluation server.[1] 10
実験結果 ii Table 3: Results on the SNLI and SciTail
dataset.[1] 11
実験結果 iii Figure 2: Domain adaption results on SNLI and
Sci-Tail.[1] Table 4: Domain adaptation results on SNLI and Scitail.[1] 12
まとめ
まとめ • Multi-Task Learning (MTL) と Laguage Model Pre-traning を
組み合わせ,MT-DNN の言語表現を学習した • 幅広いタスクで高い成果を出した • MTL のモデル構造の理解を深めることで,MT-DNN を改善で きると考えられる 13
参考文献 [1] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng
Gao. Multi-Task Deep Neural Networks for Natural Language Understanding. arXiv:1901.11504 [cs], January 2019. 14