Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Multi-Task Deep Neural Networks for Natura...
Search
shu_suzuki
February 14, 2019
Technology
0
230
文献紹介:Multi-Task Deep Neural Networks for Natural Language Understanding
長岡技術科学大学
自然言語処理研究室
鈴木脩右
第6回B3ゼミ発表資料
shu_suzuki
February 14, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
190
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
84
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
340
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
170
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
77
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
210
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
120
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
70
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
220
Other Decks in Technology
See All in Technology
AWS Network Firewall Proxyを触ってみた
nagisa53
1
240
ClickHouseはどのように大規模データを活用したAIエージェントを全社展開しているのか
mikimatsumoto
0
270
Cloud Runでコロプラが挑む 生成AI×ゲーム『神魔狩りのツクヨミ』の裏側
colopl
0
140
ランサムウェア対策としてのpnpm導入のススメ
ishikawa_satoru
0
230
SRE Enabling戦記 - 急成長する組織にSREを浸透させる戦いの歴史
markie1009
0
170
SREじゃなかった僕らがenablingを通じて「SRE実践者」になるまでのリアル / SRE Kaigi 2026
aeonpeople
6
2.6k
予期せぬコストの急増を障害のように扱う――「コスト版ポストモーテム」の導入とその後の改善
muziyoshiz
1
2.1k
ファインディの横断SREがTakumi byGMOと取り組む、セキュリティと開発スピードの両立
rvirus0817
1
1.7k
生成AIを活用した音声文字起こしシステムの2つの構築パターンについて
miu_crescent
PRO
3
220
GitHub Issue Templates + Coding Agentで簡単みんなでIaC/Easy IaC for Everyone with GitHub Issue Templates + Coding Agent
aeonpeople
1
260
SREが向き合う大規模リアーキテクチャ 〜信頼性とアジリティの両立〜
zepprix
0
480
22nd ACRi Webinar - ChipTip Technology Eric-san's slide
nao_sumikawa
0
100
Featured
See All Featured
Large-scale JavaScript Application Architecture
addyosmani
515
110k
Pawsitive SEO: Lessons from My Dog (and Many Mistakes) on Thriving as a Consultant in the Age of AI
davidcarrasco
0
68
The innovator’s Mindset - Leading Through an Era of Exponential Change - McGill University 2025
jdejongh
PRO
1
94
Marketing Yourself as an Engineer | Alaka | Gurzu
gurzu
0
130
Unsuck your backbone
ammeep
671
58k
Bioeconomy Workshop: Dr. Julius Ecuru, Opportunities for a Bioeconomy in West Africa
akademiya2063
PRO
1
57
Amusing Abliteration
ianozsvald
0
110
Testing 201, or: Great Expectations
jmmastey
46
8.1k
Templates, Plugins, & Blocks: Oh My! Creating the theme that thinks of everything
marktimemedia
31
2.7k
Darren the Foodie - Storyboard
khoart
PRO
2
2.4k
Navigating the Design Leadership Dip - Product Design Week Design Leaders+ Conference 2024
apolaine
0
190
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
55
3.3k
Transcript
Multi-Task Deep Neural Networks for Natural Language Understanding 鈴木脩右 2019/2/14
長岡技術科学大学 自然言語処理研究室 1
目次 概要 背景 MT-DNN モデル 実験タスク 実験結果 まとめ 2
概要
概要 • MT-DNN(Multi-Task Deep Neural Network) というモデルを 提案 • 複数の言語理解
(NLU) タスクにわたり,言語表現を学習 • 10 個の NLU タスクで SotA を達成 • 少ないトレーニングデータで高い精度を示した 3
背景
背景 • NLU タスクには 2 つのアプローチがある • Multi-Task Learning (MTL)
• Laguage Model Pre-traning • MT-DNN は両方の強みを併せることを目指した 4
Multi-Task Learning (MTL) • 別のタスクで得た知識を他のタスクにも利用 • 多くの関連タスクから教師データを効果的に活用できる • 学習した言語表現をタスク全体で普遍的に用いることがで きる
5
Laguage Model Pre-traning • 教師なしデータで言語表現を事前学習 • モデルの微調整をし,追加学習することで別タスクに適用 できる • 例として,BERT,ELMo
が挙げられる 6
MT-DNNモデル
MT-DNNモデル Figure 1: Architecture of the MT-DNN model for representation
learning.[1] 7
実験タスク
実験タスク i 1. Single-Sentence Classification 1 つの文で判定するタスク 2. Text Similarity
2 つの文が表す感情が類似しているか判定するタスク 3. Pairwise Text Classification 2 つの文の含意や,意味が一致するか判定するタスク 4. Relevance Ranking 質問応答タスク 8
実験タスク ii Table 1: Summary of the three benchmarks: GLUE,
SNLI and SciTail.[1] 9
実験結果
実験結果 i Table 2: GLUE test set results, which are
scored by the GLUE evaluation server.[1] 10
実験結果 ii Table 3: Results on the SNLI and SciTail
dataset.[1] 11
実験結果 iii Figure 2: Domain adaption results on SNLI and
Sci-Tail.[1] Table 4: Domain adaptation results on SNLI and Scitail.[1] 12
まとめ
まとめ • Multi-Task Learning (MTL) と Laguage Model Pre-traning を
組み合わせ,MT-DNN の言語表現を学習した • 幅広いタスクで高い成果を出した • MTL のモデル構造の理解を深めることで,MT-DNN を改善で きると考えられる 13
参考文献 [1] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng
Gao. Multi-Task Deep Neural Networks for Natural Language Understanding. arXiv:1901.11504 [cs], January 2019. 14