Lock in $30 Savings on PRO—Offer Ends Soon! ⏳
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Multi-Task Deep Neural Networks for Natura...
Search
shu_suzuki
February 14, 2019
Technology
0
230
文献紹介:Multi-Task Deep Neural Networks for Natural Language Understanding
長岡技術科学大学
自然言語処理研究室
鈴木脩右
第6回B3ゼミ発表資料
shu_suzuki
February 14, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
190
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
83
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
340
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
160
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
76
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
210
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
120
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
69
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
210
Other Decks in Technology
See All in Technology
ハッカソンから社内プロダクトへ AIエージェント「ko☆shi」開発で学んだ4つの重要要素
sonoda_mj
6
880
2025-12-18_AI駆動開発推進プロジェクト運営について / AIDD-Promotion project management
yayoi_dd
0
130
Strands Agents × インタリーブ思考 で変わるAIエージェント設計 / Strands Agents x Interleaved Thinking AI Agents
takanorig
4
1.1k
1人1サービス開発しているチームでのClaudeCodeの使い方
noayaoshiro
2
500
Fashion×AI「似合う」を届けるためのWEARのAI戦略
zozotech
PRO
2
1k
エンジニアリングをやめたくないので問い続ける
estie
2
1.2k
AWS re:Invent 2025~初参加の成果と学び~
kubomasataka
0
150
Bedrock AgentCore Memoryの新機能 (Episode) を試してみた / try Bedrock AgentCore Memory Episodic functionarity
hoshi7_n
2
970
AI-DLCを現場にインストールしてみた:プロトタイプ開発で分かったこと・やめたこと
recruitengineers
PRO
2
190
SREには開発組織全体で向き合う
koh_naga
0
390
会社紹介資料 / Sansan Company Profile
sansan33
PRO
11
390k
AWSの新機能をフル活用した「re:Inventエージェント」開発秘話
minorun365
1
110
Featured
See All Featured
30 Presentation Tips
portentint
PRO
1
170
AI Search: Where Are We & What Can We Do About It?
aleyda
0
6.7k
The browser strikes back
jonoalderson
0
64
Building a Scalable Design System with Sketch
lauravandoore
463
34k
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
55
3.2k
10 Git Anti Patterns You Should be Aware of
lemiorhan
PRO
659
61k
The Spectacular Lies of Maps
axbom
PRO
1
390
Documentation Writing (for coders)
carmenintech
77
5.2k
brightonSEO & MeasureFest 2025 - Christian Goodrich - Winning strategies for Black Friday CRO & PPC
cargoodrich
2
61
The Limits of Empathy - UXLibs8
cassininazir
1
190
Building Adaptive Systems
keathley
44
2.9k
How to Align SEO within the Product Triangle To Get Buy-In & Support - #RIMC
aleyda
1
1.3k
Transcript
Multi-Task Deep Neural Networks for Natural Language Understanding 鈴木脩右 2019/2/14
長岡技術科学大学 自然言語処理研究室 1
目次 概要 背景 MT-DNN モデル 実験タスク 実験結果 まとめ 2
概要
概要 • MT-DNN(Multi-Task Deep Neural Network) というモデルを 提案 • 複数の言語理解
(NLU) タスクにわたり,言語表現を学習 • 10 個の NLU タスクで SotA を達成 • 少ないトレーニングデータで高い精度を示した 3
背景
背景 • NLU タスクには 2 つのアプローチがある • Multi-Task Learning (MTL)
• Laguage Model Pre-traning • MT-DNN は両方の強みを併せることを目指した 4
Multi-Task Learning (MTL) • 別のタスクで得た知識を他のタスクにも利用 • 多くの関連タスクから教師データを効果的に活用できる • 学習した言語表現をタスク全体で普遍的に用いることがで きる
5
Laguage Model Pre-traning • 教師なしデータで言語表現を事前学習 • モデルの微調整をし,追加学習することで別タスクに適用 できる • 例として,BERT,ELMo
が挙げられる 6
MT-DNNモデル
MT-DNNモデル Figure 1: Architecture of the MT-DNN model for representation
learning.[1] 7
実験タスク
実験タスク i 1. Single-Sentence Classification 1 つの文で判定するタスク 2. Text Similarity
2 つの文が表す感情が類似しているか判定するタスク 3. Pairwise Text Classification 2 つの文の含意や,意味が一致するか判定するタスク 4. Relevance Ranking 質問応答タスク 8
実験タスク ii Table 1: Summary of the three benchmarks: GLUE,
SNLI and SciTail.[1] 9
実験結果
実験結果 i Table 2: GLUE test set results, which are
scored by the GLUE evaluation server.[1] 10
実験結果 ii Table 3: Results on the SNLI and SciTail
dataset.[1] 11
実験結果 iii Figure 2: Domain adaption results on SNLI and
Sci-Tail.[1] Table 4: Domain adaptation results on SNLI and Scitail.[1] 12
まとめ
まとめ • Multi-Task Learning (MTL) と Laguage Model Pre-traning を
組み合わせ,MT-DNN の言語表現を学習した • 幅広いタスクで高い成果を出した • MTL のモデル構造の理解を深めることで,MT-DNN を改善で きると考えられる 13
参考文献 [1] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng
Gao. Multi-Task Deep Neural Networks for Natural Language Understanding. arXiv:1901.11504 [cs], January 2019. 14