Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Simple and Effective Paraphrastic Similarity fr...
Search
katsutan
January 27, 2020
Technology
0
220
Simple and Effective Paraphrastic Similarity from Parallel Translations
文献紹介
https://www.aclweb.org/anthology/P19-1453.pdf
長岡技術科学大学
勝田 哲弘
katsutan
January 27, 2020
Tweet
Share
More Decks by katsutan
See All by katsutan
What does BERT learn about the structure of language?
katsutan
0
240
Simple task-specific bilingual word embeddings
katsutan
0
210
Retrofitting Contextualized Word Embeddings with Paraphrases
katsutan
0
270
Character Eyes: Seeing Language through Character-Level Taggers
katsutan
1
220
Improving Word Embeddings Using Kernel PCA
katsutan
0
230
Better Word Embeddings by Disentangling Contextual n-Gram Information
katsutan
0
320
Rotational Unit of Memory: A Novel Representation Unit for RNNs with Scalable Applications
katsutan
0
270
A robust self-learning method for fully unsupervised cross-lingual mappings of word embeddings
katsutan
0
300
DSGAN: Generative Adversarial Training for Distant Supervision Relation Extraction
katsutan
0
280
Other Decks in Technology
See All in Technology
OSSで構築するIT基盤管理実践事例: NetBox・Snipe-IT・FreeRADIUS+PrivacyIDEA / Practical Case Studies of IT Infrastructure Management Using OSS
nttcom
0
200
OCI Security サービス 概要
oracle4engineer
PRO
2
13k
マルチロールEMが実践する「組織のレジリエンス」を高めるための組織構造と人材配置戦略
coconala_engineer
2
410
Eight Engineering Unit 紹介資料
sansan33
PRO
1
6.9k
新職業『オーケストレーター』誕生 — エージェント10体を同時に回すAgentOps
gunta
4
1.4k
製造業ドメインにおける LLMプロダクト構築: 複雑な文脈へのアプローチ
caddi_eng
1
450
Master Dataグループ紹介資料
sansan33
PRO
1
4.4k
技術的負債の泥沼から組織を救う3つの転換点
nwiizo
7
2.1k
男(監査)はつらいよ - Policy as CodeからAIエージェントへ
ken5scal
5
730
AIに視覚を与えモバイルアプリケーション開発をより円滑に行う
lycorptech_jp
PRO
1
790
Kaggleで鍛えたスキルの実務での活かし方 競技とプロダクト開発のリアル
recruitengineers
PRO
1
140
類似画像検索モデルの開発ノウハウ
lycorptech_jp
PRO
3
890
Featured
See All Featured
The Organizational Zoo: Understanding Human Behavior Agility Through Metaphoric Constructive Conversations (based on the works of Arthur Shelley, Ph.D)
kimpetersen
PRO
0
260
How to Think Like a Performance Engineer
csswizardry
28
2.5k
How To Stay Up To Date on Web Technology
chriscoyier
790
250k
How STYLIGHT went responsive
nonsquared
100
6k
実際に使うSQLの書き方 徹底解説 / pgcon21j-tutorial
soudai
PRO
199
73k
Statistics for Hackers
jakevdp
799
230k
VelocityConf: Rendering Performance Case Studies
addyosmani
333
24k
Performance Is Good for Brains [We Love Speed 2024]
tammyeverts
12
1.4k
Cheating the UX When There Is Nothing More to Optimize - PixelPioneers
stephaniewalter
287
14k
ReactJS: Keep Simple. Everything can be a component!
pedronauck
666
130k
Deep Space Network (abreviated)
tonyrice
0
86
The Language of Interfaces
destraynor
162
26k
Transcript
Simple and Effective Paraphrastic Similarity from Parallel Translations 長岡技術科学大学 自然言語処理研究室
勝田 哲弘 文献紹介 Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4602–4608 Florence, Italy, July 28 - August 2, 2019
Abstract ➢言い換え文の埋め込みを学習するためのモデル ➢時間のかかる言い換えコーパスの作成ステップを削除 ➢bitextから直接学習 ➢結果 ➢このモデルは最先端の複雑なモデルよりも優れている ➢高速であり、クロスリンガルタスクに適用できる 2
Introduction ➢これまでの文の類似性 ➢言い換えフレーズのデータセットで学習 ➢大きなバイリンガルコーパスから言い換えデータセット を誘導する ➢本論文 ➢文の埋め込みをbitextで直接学習 ➢高速に文章をエンコードするシンプルなモデル 3
Learning Sentence Embeddings ➢Training ⚫ トレーニングデータ ⚫ それぞれソース言語とターゲット言語の一連の並列文 ペア (
, ) ⚫ ネガティブサンプリング ⚫ の翻訳ではないターゲット文′ をランダムに選択 ⚫ ( , )を( , ′ )よりもマージンδ近づける 4 目的関数 (; ): 各言語のパラメーターを持つ センテンスエンコーダー
Learning Sentence Embeddings ➢Negative Sampling ➢ mega-batching, Wieting and Gimpel(2018)
➢Mが大きいほど困難な例を提供 ➢Mega-batching ➢M個のミニバッチを集約して1つのメガバッチを作成し、 メガバッチから負の例を選択 ➢メガバッチの各ペアに負の例があれば、メガバッチはM 個のミニバッチに分割 5
Learning Sentence Embeddings Encoders ➢SP ➢sentencepiece のサブワードを平均 ➢TRIGRAM ➢文字トライグラムの平均 ➢WORD
➢単語の平均 ➢LSTM-SP ➢Sentencepieceを用いた双方向LSTM 6
Experiments ➢並列データと逆翻訳された並列データの学習 を比較 ➢2012-2016年のSemEval Semantic Textual Similarity (STS) ➢2つのsemantic cross-lingual
tasksでの最良の モデルSPを比較 ➢2017 SemEval STS ➢2018 Building and Using Parallel Corpora (BUCC) 7
Back-Translated Text vs. Parallel Text ➢En-EnはEn-CS(1M) より、 SPを除いて高い相関 ➢同数の英文を用意すれば 同程度の性能
➢En-CS設定でSPは最高の パフォーマンスを発揮
Monolingual and Cross-Lingual Similarity 従来の深層学習モデル を上回る精度
Monolingual and Cross-Lingual Similarity ランダム設定ではTRIGRAMが強い ※語彙の重複がないと精度が低い
Mining Bitext ➢異なる各言語の大規模なコーパスから正しい対訳 ペアを見つける 11
Encoding Speed 12
Does Language Choice Matter? 13
Conclusion ➢bitextを直接使用することにより精度の高い文の埋 め込みを作成 ➢ピボットや逆翻訳などを使用する必要がない ➢言語横断的表現が生成可能 ➢比較可能な従来の方法と比べて圧倒的に高速 14