Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Multi-Task Deep Neural Networks for Natura...
Search
shu_suzuki
February 14, 2019
Technology
0
220
文献紹介:Multi-Task Deep Neural Networks for Natural Language Understanding
長岡技術科学大学
自然言語処理研究室
鈴木脩右
第6回B3ゼミ発表資料
shu_suzuki
February 14, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
190
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
82
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
320
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
160
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
76
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
210
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
110
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
66
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
210
Other Decks in Technology
See All in Technology
COVESA VSSによる車両データモデルの標準化とAWS IoT FleetWiseの活用
osawa
1
400
これでもう迷わない!Jetpack Composeの書き方実践ガイド
zozotech
PRO
0
1.1k
会社紹介資料 / Sansan Company Profile
sansan33
PRO
7
380k
EncryptedSharedPreferences が deprecated になっちゃった!どうしよう! / Oh no! EncryptedSharedPreferences has been deprecated! What should I do?
yanzm
0
490
AWSを利用する上で知っておきたい名前解決のはなし(10分版)
nagisa53
10
3.2k
20250910_障害注入から効率的復旧へ_カオスエンジニアリング_生成AIで考えるAWS障害対応.pdf
sh_fk2
3
280
Apache Spark もくもく会
taka_aki
0
140
AI時代を生き抜くエンジニアキャリアの築き方 (AI-Native 時代、エンジニアという道は 「最大の挑戦の場」となる) / Building an Engineering Career to Thrive in the Age of AI (In the AI-Native Era, the Path of Engineering Becomes the Ultimate Arena of Challenge)
jeongjaesoon
0
260
今日から始めるAWSセキュリティ対策 3ステップでわかる実践ガイド
yoshidatakeshi1994
0
120
AWSで始める実践Dagster入門
kitagawaz
1
750
職種の壁を溶かして開発サイクルを高速に回す~情報透明性と職種越境から考えるAIフレンドリーな職種間連携~
daitasu
0
190
AIがコード書きすぎ問題にはAIで立ち向かえ
jyoshise
1
290
Featured
See All Featured
Facilitating Awesome Meetings
lara
55
6.5k
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
53
3k
Rebuilding a faster, lazier Slack
samanthasiow
83
9.2k
Keith and Marios Guide to Fast Websites
keithpitt
411
22k
The Psychology of Web Performance [Beyond Tellerrand 2023]
tammyeverts
49
3k
Building a Modern Day E-commerce SEO Strategy
aleyda
43
7.6k
Docker and Python
trallard
46
3.6k
Testing 201, or: Great Expectations
jmmastey
45
7.7k
The Illustrated Children's Guide to Kubernetes
chrisshort
48
50k
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
113
20k
Mobile First: as difficult as doing things right
swwweet
224
9.9k
Optimising Largest Contentful Paint
csswizardry
37
3.4k
Transcript
Multi-Task Deep Neural Networks for Natural Language Understanding 鈴木脩右 2019/2/14
長岡技術科学大学 自然言語処理研究室 1
目次 概要 背景 MT-DNN モデル 実験タスク 実験結果 まとめ 2
概要
概要 • MT-DNN(Multi-Task Deep Neural Network) というモデルを 提案 • 複数の言語理解
(NLU) タスクにわたり,言語表現を学習 • 10 個の NLU タスクで SotA を達成 • 少ないトレーニングデータで高い精度を示した 3
背景
背景 • NLU タスクには 2 つのアプローチがある • Multi-Task Learning (MTL)
• Laguage Model Pre-traning • MT-DNN は両方の強みを併せることを目指した 4
Multi-Task Learning (MTL) • 別のタスクで得た知識を他のタスクにも利用 • 多くの関連タスクから教師データを効果的に活用できる • 学習した言語表現をタスク全体で普遍的に用いることがで きる
5
Laguage Model Pre-traning • 教師なしデータで言語表現を事前学習 • モデルの微調整をし,追加学習することで別タスクに適用 できる • 例として,BERT,ELMo
が挙げられる 6
MT-DNNモデル
MT-DNNモデル Figure 1: Architecture of the MT-DNN model for representation
learning.[1] 7
実験タスク
実験タスク i 1. Single-Sentence Classification 1 つの文で判定するタスク 2. Text Similarity
2 つの文が表す感情が類似しているか判定するタスク 3. Pairwise Text Classification 2 つの文の含意や,意味が一致するか判定するタスク 4. Relevance Ranking 質問応答タスク 8
実験タスク ii Table 1: Summary of the three benchmarks: GLUE,
SNLI and SciTail.[1] 9
実験結果
実験結果 i Table 2: GLUE test set results, which are
scored by the GLUE evaluation server.[1] 10
実験結果 ii Table 3: Results on the SNLI and SciTail
dataset.[1] 11
実験結果 iii Figure 2: Domain adaption results on SNLI and
Sci-Tail.[1] Table 4: Domain adaptation results on SNLI and Scitail.[1] 12
まとめ
まとめ • Multi-Task Learning (MTL) と Laguage Model Pre-traning を
組み合わせ,MT-DNN の言語表現を学習した • 幅広いタスクで高い成果を出した • MTL のモデル構造の理解を深めることで,MT-DNN を改善で きると考えられる 13
参考文献 [1] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng
Gao. Multi-Task Deep Neural Networks for Natural Language Understanding. arXiv:1901.11504 [cs], January 2019. 14