Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介: Generating Sentences from a Continuous Space
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Yumeto Inaoka
May 11, 2018
Research
380
0
Share
文献紹介: Generating Sentences from a Continuous Space
2018/05/11の文献紹介で発表
Yumeto Inaoka
May 11, 2018
More Decks by Yumeto Inaoka
See All by Yumeto Inaoka
文献紹介: Quantity doesn’t buy quality syntax with neural language models
yumeto
1
210
文献紹介: Open Domain Web Keyphrase Extraction Beyond Language Modeling
yumeto
0
270
文献紹介: Self-Supervised_Neural_Machine_Translation
yumeto
0
190
文献紹介: Comparing and Developing Tools to Measure the Readability of Domain-Specific Texts
yumeto
0
200
文献紹介: PAWS: Paraphrase Adversaries from Word Scrambling
yumeto
0
190
文献紹介: Beyond BLEU: Training Neural Machine Translation with Semantic Similarity
yumeto
0
320
文献紹介: EditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing
yumeto
0
390
文献紹介: Decomposable Neural Paraphrase Generation
yumeto
0
250
文献紹介: Analyzing the Limitations of Cross-lingual Word Embedding Mappings
yumeto
0
270
Other Decks in Research
See All in Research
AI Agentの精度改善に見るML開発との共通点 / commonalities in accuracy improvements in agentic era
shimacos
6
1.6k
Ankylosing Spondylitis
ankh2054
0
170
LLM Compute Infrastructure Overview
karakurist
2
1.3k
姫路市 -都市OSの「再実装」-
hopin
0
1.7k
2026 東京科学大 情報通信系 研究室紹介 (大岡山)
icttitech
0
2.9k
NII S. Koyama's Lab Research Overview AY2026
skoyamalab
0
190
Φ-Sat-2のAutoEncoderによる情報圧縮系論文
satai
4
560
正規分布と最適化について
koide3
0
160
[チュートリアル] 電波マップ構築入門 :研究動向と課題設定の勘所
k_sato
0
410
はじまりの クエスチョンブック —余暇と豊かさにあふれた社会とは?
culturaltransition
PRO
0
400
老舗ものづくり企業でリサーチが変革を起こすまで - 三菱重工DXの実践
skydats
0
140
YOLO26_ Key Architectural Enhancements and Performance Benchmarking for Real-Time Object Detection
satai
3
590
Featured
See All Featured
16th Malabo Montpellier Forum Presentation
akademiya2063
PRO
0
110
10 Git Anti Patterns You Should be Aware of
lemiorhan
PRO
659
62k
A brief & incomplete history of UX Design for the World Wide Web: 1989–2019
jct
1
370
Intergalactic Javascript Robots from Outer Space
tanoku
273
27k
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
55
3.3k
A designer walks into a library…
pauljervisheath
211
24k
The Myth of the Modular Monolith - Day 2 Keynote - Rails World 2024
eileencodes
28
3.5k
Why Our Code Smells
bkeepers
PRO
340
58k
Jess Joyce - The Pitfalls of Following Frameworks
techseoconnect
PRO
1
140
Efficient Content Optimization with Google Search Console & Apps Script
katarinadahlin
PRO
1
530
Navigating Weather and Climate Data
rabernat
0
180
Color Theory Basics | Prateek | Gurzu
gurzu
0
310
Transcript
Generating Sentences from a Continuous Space Samuel R. Bowman, Luke
Vilnis, Oriol Vinyals, Andrew M. Dai, Rafal Jozefowicz & Samy Bengio. Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning (CoNLL), pages 10–21, 2016. 文献紹介 2018/05/11 長岡技術科学大学 自然言語処理研究室 稲岡 夢人
Abstract •文全体の分散表現を組込んだRNNベースの Variational AutoEncoderに関する研究 •スタイル、話題、構文的特徴などの文全体の特徴をモデル化 •文間の潜在空間の経路を調べることで、その間にある文を 新たに生成することができる !2
Abstract •提案モデルを学習させる際の問題を解決する手法の提案 •欠落した語を復元させる効果を実証 •文の潜在空間について興味深い特性について調査 •提案モデルを言語モデルとして使用することについて 否定的な結果を提示 !3
Introduction •RNNLMは状態に基づいて文を単語毎に生成 ← トピックや構文的特徴など文全体の特徴を解釈可能な 状態で出力しない •Variational AutoEncoderの構造を用いたモデルに 実用的な訓練手法を利用 → 文全体の特徴を連続潜在変数として捕捉
!4
Unsupervised sentence encoding •Sequence AutoEncoder → 中間の表現からは妥当な文が出力できない •Skip-thought model •Paragraph
Vector !5
Variational AutoEncoder •潜在変数を確率分布に落とし込んだモデル •潜在変数を単一の点としてではなく潜在空間の領域と なるように学習 → 一般にはガウス分布になるよう近づける •学習では真の分布とEncoderの分布のKL divergenceと 入出力の差を損失としてそれを小さくする
!6
VAE for sentences •single-layer LSTMをencoder, decoderに用いる テキストのVAEを提案 !7
Optimization •非ゼロなKL-divergence項と小さなcross entropyを 持つようなエンコーダが理想的 •普通の実装ではKL-divergence項は0になる •KL cost annealingを用いる !8
Optimization •エンコーダに対して強いデコーダを弱めるために Word dropout and historyless decodingを行う •入力系列の単語を確率的にUNKに置換 !9
Experiments (Language Modeling) •Penn Treebankを用いて言語モデルを学習 •NLLとPPLで評価 •VAEの方が悪い結果であるが、Inputless Decoderでは KL lossを含めても性能が向上
!10
Experiments (Imputing missing words) •VAEは欠落語の入力に適している !11
Impact of word dropout •100% word keepでは典型的な文が出力 0% word keepでは文法的でない文が出力
!12
Sampling from the posterior •エンコーダの出力分布の平均、3つのサンプルをデコード •文長とトピックは捉えられている •文が長くなると出力は多様になる !13
Homotopies •variationalの方が中間の文が 文法的でトピックが一貫する !14
Conclusion •自然言語文にVAEを使用する方法の提案 •提案モデルによる欠落語の復元の効果を示した •潜在変数間のサンプリングから一貫性のある多様な文を 生成できることを示した !15