Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
深層学習を用いた自然言語処理③
Search
shu_suzuki
January 24, 2019
Technology
0
110
深層学習を用いた自然言語処理③
長岡技術科学大学 自然言語処理研究室
B3ゼミ発表資料
shu_suzuki
January 24, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
180
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
77
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
310
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
160
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
70
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
200
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
110
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
62
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
210
Other Decks in Technology
See All in Technology
AWS全冠したので振りかえってみる
tajimon
0
150
米国国防総省のDevSecOpsライフサイクルをAWSのセキュリティサービスとOSSで実現
syoshie
2
640
新卒3年目の後悔〜機械学習モデルジョブの運用を頑張った話〜
kameitomohiro
0
360
キャディでのApache Iceberg, Trino採用事例 -Apache Iceberg and Trino Usecase in CADDi--
caddi_eng
0
170
Snowflake Summit 2025 データエンジニアリング関連新機能紹介 / Snowflake Summit 2025 What's New about Data Engineering
tiltmax3
0
130
AI技術トレンド勉強会 #1MCPの基礎と実務での応用
nisei_k
1
240
Amazon ECS & AWS Fargate 運用アーキテクチャ2025 / Amazon ECS and AWS Fargate Ops Architecture 2025
iselegant
13
3.7k
評価の納得感を2段階高める「構造化フィードバック」
aloerina
1
280
Observability в PHP без боли. Олег Мифле, тимлид Altenar
lamodatech
0
240
AIのAIによるAIのための出力評価と改善
chocoyama
0
400
Navigation3でViewModelにデータを渡す方法
mikanichinose
0
190
比起獨自升級 我更喜歡 DevOps 文化 <3
line_developers_tw
PRO
0
1.1k
Featured
See All Featured
Bootstrapping a Software Product
garrettdimon
PRO
307
110k
Build your cross-platform service in a week with App Engine
jlugia
231
18k
The World Runs on Bad Software
bkeepers
PRO
68
11k
Refactoring Trust on Your Teams (GOTO; Chicago 2020)
rmw
34
3k
Fashionably flexible responsive web design (full day workshop)
malarkey
407
66k
ReactJS: Keep Simple. Everything can be a component!
pedronauck
667
120k
Let's Do A Bunch of Simple Stuff to Make Websites Faster
chriscoyier
507
140k
The Cult of Friendly URLs
andyhume
79
6.4k
Building an army of robots
kneath
306
45k
Documentation Writing (for coders)
carmenintech
71
4.9k
実際に使うSQLの書き方 徹底解説 / pgcon21j-tutorial
soudai
PRO
181
53k
Balancing Empowerment & Direction
lara
1
330
Transcript
深層学習を用いた自然言語処理(3) seq2seqを用いた言語モデルによる文章生成 鈴木脩右 2019/1/24 長岡技術科学大学 自然言語処理研究室 1
目次 言語モデル seq2seq おわりに 2
言語モデル
言語モデルとは • 単語の並びに対して確率を与える • 自然な単語の並びかを確率で評価 例) 「You say goodbye」→ 高確率 「You
say good die」→ 低確率 • 様々なアプリケーションに応用可能 例)機械翻訳,対話システム • 確率分布により文章生成が可能 3
数式による表現 w1 , · · · , wm という順序で単語が出現する確率 (同時確率)
は次式で表される P(wt |w1 , · · · , wm ) = m t=1 P(wt |w1 , · · · , wt−1 ) 4
評価方法 モデルの予測性能を perplexity(確率の逆数) で評価 L = − 1 N n
t tnk log ynk perplexity = eL tnk :onehot ベクトルの正解ラベル, ynk :確率分布,L:損失関数 5
seq2seq
seq2seq(sequence to sequence)とは • 時系列データを別の時系列データに 変換するモデル • Encoder-Decoder モデルとも呼ばれる •
2 つの RNN モデルを利用する 6
RNN(Recurrent Neaural Network)とは • ループする経路を持っている • 一つ前の出力データが入力される • ht =
tanh(ht−1 Wh + xt Wx + b) Figure 1: RNN モ デル 7
RNN言語モデル Figure 2: RNN 言語モデル 8
RNNによる文章生成 Figure 3: 文章生成の流れ 9
Encoder-Decoderモデル • Encoder-文章を固定長のベクトルに変換する • Decoder-固定長のベクトルを受け取り,文章生成 Figure 4: Encoder-Decoder モデル 10
seq2seqの改良 • Encoder で固定長のベクトルに変換するため,長文に対応 できない → 単語ベクトルを行列にまとめて Decoder に渡す • Decoder
はまとまった行列を受け取れない → 対応関係にある単語の情報を抜き出す (Attention) • 行列と,単語の重要度の重み付き和で Attention を実現 → 単語の重要度は,固定長ベクトルと行列の類似度に よって算出される 11
おわりに
まとめ • 言語モデルは,単語の羅列を確率として解釈する • seq2seq は時系列データを別の時系列データに変換する • RNN はループする経路を持っている •
Encoder は文章をベクトルに変換する • Decoder はベクトルを受け取り,文章生成する • Attention という手法で,seq2seq を改良できる 12
参考文献 [1] 藤康毅. ゼロから作る Deep Learning ②. オライリー・ジャ パン,2018. [2]
高知宏. 自然言語処理と深層学習. オーム社,2017. 13