$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
深層学習を用いた自然言語処理③
Search
shu_suzuki
January 24, 2019
Technology
0
110
深層学習を用いた自然言語処理③
長岡技術科学大学 自然言語処理研究室
B3ゼミ発表資料
shu_suzuki
January 24, 2019
Tweet
Share
More Decks by shu_suzuki
See All by shu_suzuki
文献紹介:Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References
shu_suzuki
0
190
文献紹介:Do Neural Dialog Systems Use the Conversation History Effectively? An Empirical Study
shu_suzuki
0
83
文献紹介: How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models
shu_suzuki
0
340
文献紹介:Conversational Response Re-ranking Based on Event Causality and Role Factored Tensor Event Embedding
shu_suzuki
0
160
文献紹介:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables
shu_suzuki
0
76
文献紹介:ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation
shu_suzuki
0
210
文献紹介:Better Automatic Evaluation of Open-Domain Dialogue Systems with Contextualized Embeddings
shu_suzuki
0
120
文献紹介:Why are Sequence-to-Sequence Models So Dull?
shu_suzuki
0
69
文献紹介:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network
shu_suzuki
0
210
Other Decks in Technology
See All in Technology
文字列の並び順 / Unicode Collation
tmtms
3
620
re:Invent 2025 ~何をする者であり、どこへいくのか~
tetutetu214
0
240
AWS CLIの新しい認証情報設定方法aws loginコマンドの実態
wkm2
7
770
Amazon Quick Suite で始める手軽な AI エージェント
shimy
1
1.1k
AWSインフルエンサーへの道 / load of AWS Influencer
whisaiyo
0
160
シニアソフトウェアエンジニアになるためには
kworkdev
PRO
3
200
AWS運用を効率化する!AWS Organizationsを軸にした一元管理の実践/nikkei-tech-talk-202512
nikkei_engineer_recruiting
0
140
S3を正しく理解するための内部構造の読解
nrinetcom
PRO
3
210
ExpoのインダストリーブースでみたAWSが見せる製造業の未来
hamadakoji
0
180
年間40件以上の登壇を続けて見えた「本当の発信力」/ 20251213 Masaki Okuda
shift_evolve
PRO
1
140
NIKKEI Tech Talk #41: セキュア・バイ・デザインからクラウド管理を考える
sekido
PRO
0
180
マイクロサービスへの5年間 ぶっちゃけ何をしてどうなったか
joker1007
17
7.2k
Featured
See All Featured
実際に使うSQLの書き方 徹底解説 / pgcon21j-tutorial
soudai
PRO
196
70k
The Art of Delivering Value - GDevCon NA Keynote
reverentgeek
16
1.8k
Agile Leadership in an Agile Organization
kimpetersen
PRO
0
46
State of Search Keynote: SEO is Dead Long Live SEO
ryanjones
0
63
Digital Ethics as a Driver of Design Innovation
axbom
PRO
0
130
Max Prin - Stacking Signals: How International SEO Comes Together (And Falls Apart)
techseoconnect
PRO
0
47
Typedesign – Prime Four
hannesfritz
42
2.9k
A Modern Web Designer's Workflow
chriscoyier
698
190k
The agentic SEO stack - context over prompts
schlessera
0
550
The Impact of AI in SEO - AI Overviews June 2024 Edition
aleyda
5
680
What the history of the web can teach us about the future of AI
inesmontani
PRO
0
370
Put a Button on it: Removing Barriers to Going Fast.
kastner
60
4.1k
Transcript
深層学習を用いた自然言語処理(3) seq2seqを用いた言語モデルによる文章生成 鈴木脩右 2019/1/24 長岡技術科学大学 自然言語処理研究室 1
目次 言語モデル seq2seq おわりに 2
言語モデル
言語モデルとは • 単語の並びに対して確率を与える • 自然な単語の並びかを確率で評価 例) 「You say goodbye」→ 高確率 「You
say good die」→ 低確率 • 様々なアプリケーションに応用可能 例)機械翻訳,対話システム • 確率分布により文章生成が可能 3
数式による表現 w1 , · · · , wm という順序で単語が出現する確率 (同時確率)
は次式で表される P(wt |w1 , · · · , wm ) = m t=1 P(wt |w1 , · · · , wt−1 ) 4
評価方法 モデルの予測性能を perplexity(確率の逆数) で評価 L = − 1 N n
t tnk log ynk perplexity = eL tnk :onehot ベクトルの正解ラベル, ynk :確率分布,L:損失関数 5
seq2seq
seq2seq(sequence to sequence)とは • 時系列データを別の時系列データに 変換するモデル • Encoder-Decoder モデルとも呼ばれる •
2 つの RNN モデルを利用する 6
RNN(Recurrent Neaural Network)とは • ループする経路を持っている • 一つ前の出力データが入力される • ht =
tanh(ht−1 Wh + xt Wx + b) Figure 1: RNN モ デル 7
RNN言語モデル Figure 2: RNN 言語モデル 8
RNNによる文章生成 Figure 3: 文章生成の流れ 9
Encoder-Decoderモデル • Encoder-文章を固定長のベクトルに変換する • Decoder-固定長のベクトルを受け取り,文章生成 Figure 4: Encoder-Decoder モデル 10
seq2seqの改良 • Encoder で固定長のベクトルに変換するため,長文に対応 できない → 単語ベクトルを行列にまとめて Decoder に渡す • Decoder
はまとまった行列を受け取れない → 対応関係にある単語の情報を抜き出す (Attention) • 行列と,単語の重要度の重み付き和で Attention を実現 → 単語の重要度は,固定長ベクトルと行列の類似度に よって算出される 11
おわりに
まとめ • 言語モデルは,単語の羅列を確率として解釈する • seq2seq は時系列データを別の時系列データに変換する • RNN はループする経路を持っている •
Encoder は文章をベクトルに変換する • Decoder はベクトルを受け取り,文章生成する • Attention という手法で,seq2seq を改良できる 12
参考文献 [1] 藤康毅. ゼロから作る Deep Learning ②. オライリー・ジャ パン,2018. [2]
高知宏. 自然言語処理と深層学習. オーム社,2017. 13