Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Phrase-level Self-Attention Networks for Univer...
Search
katsutan
January 28, 2019
Technology
0
260
Phrase-level Self-Attention Networks for Universal Sentence Encoding
文献紹介
長岡技術科学大学 勝田 哲弘
http://aclweb.org/anthology/D18-1408
katsutan
January 28, 2019
Tweet
Share
More Decks by katsutan
See All by katsutan
What does BERT learn about the structure of language?
katsutan
0
240
Simple and Effective Paraphrastic Similarity from Parallel Translations
katsutan
0
220
Simple task-specific bilingual word embeddings
katsutan
0
210
Retrofitting Contextualized Word Embeddings with Paraphrases
katsutan
0
270
Character Eyes: Seeing Language through Character-Level Taggers
katsutan
1
220
Improving Word Embeddings Using Kernel PCA
katsutan
0
230
Better Word Embeddings by Disentangling Contextual n-Gram Information
katsutan
0
320
Rotational Unit of Memory: A Novel Representation Unit for RNNs with Scalable Applications
katsutan
0
270
A robust self-learning method for fully unsupervised cross-lingual mappings of word embeddings
katsutan
0
300
Other Decks in Technology
See All in Technology
Yahoo!ショッピングのレコメンデーション・システムにおけるML実践の一例
lycorptech_jp
PRO
1
180
kintone開発のプラットフォームエンジニアの紹介
cybozuinsideout
PRO
0
850
ブラックボックス観測に基づくAI支援のプロトコルのリバースエンジニアリングと再現~AIを用いたリバースエンジニアリング~ @ SECCON 14 電脳会議 / Reverse Engineering and Reproduction of an AI-Assisted Protocol Based on Black-Box Observation @ SECCON 14 DENNO-KAIGI
chibiegg
0
160
組織全体で実現する標準監視設計
yuobayashi
2
460
Exadata Database Service on Dedicated Infrastructure(ExaDB-D) UI スクリーン・キャプチャ集
oracle4engineer
PRO
8
7.1k
マネージャー版 "提案のレベル" を上げる
konifar
21
14k
JAWSDAYS2026_A-6_現場SEが語る 回せるセキュリティ運用~設計で可視化、AIで加速する「楽に回る」運用設計のコツ~
shoki_hata
0
2.9k
白金鉱業Meetup_Vol.22_Orbital Senseを支える衛星画像のマルチモーダルエンベディングと地理空間のあいまい検索技術
brainpadpr
2
270
類似画像検索モデルの開発ノウハウ
lycorptech_jp
PRO
4
1.1k
事例に見るスマートファクトリーへの道筋〜工場データをAI Readyにする実践ステップ〜
hamadakoji
1
260
SRE NEXT 2026 CfP レビュアーが語る聞きたくなるプロポーザルとは?
yutakawasaki0911
0
180
DX Improvement at Scale
ntk1000
3
440
Featured
See All Featured
Prompt Engineering for Job Search
mfonobong
0
180
Learning to Love Humans: Emotional Interface Design
aarron
275
41k
YesSQL, Process and Tooling at Scale
rocio
174
15k
Primal Persuasion: How to Engage the Brain for Learning That Lasts
tmiket
0
290
Bioeconomy Workshop: Dr. Julius Ecuru, Opportunities for a Bioeconomy in West Africa
akademiya2063
PRO
1
69
Unlocking the hidden potential of vector embeddings in international SEO
frankvandijk
0
200
Principles of Awesome APIs and How to Build Them.
keavy
128
17k
Agile Actions for Facilitating Distributed Teams - ADO2019
mkilby
0
140
Taking LLMs out of the black box: A practical guide to human-in-the-loop distillation
inesmontani
PRO
3
2.1k
Unsuck your backbone
ammeep
672
58k
GraphQLの誤解/rethinking-graphql
sonatard
75
11k
The Web Performance Landscape in 2024 [PerfNow 2024]
tammyeverts
12
1.1k
Transcript
Phrase-level Self-Attention Networks for Universal Sentence Encoding Wei Wu, Houfeng
Wang, Tianyu Liu, Shuming Ma Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 3729–3738 Brussels, Belgium, 2018. 文献紹介 長岡技術科学大学 勝田 哲弘
Abstract • Phrase-level SelfAttention Networks (PSAN)を提案 • フレーズで自己注意を行うため、メモリ消費が少ない • gated
memory updating mechanismでツリー構造を組み込 むことで階層的に単語表現を学習できる • 少ないメモリで様々なタスクでSotAを達成
Introduction 文のエンコーダにはRNNやCNNが用いられる • RNN:並列化できず、時間効率が悪い • CNN:パフォーマンスがRNNより悪い RNN/CNNを用いない Phrase-level SelfAttention Networks
(PSAN)を提案
Proposed Model ツリー構造は、階層レベルTで異なる粒度で分割することができる
Proposed Model phrase represented: word embeddings: 最初にフレーズ内の単語アライメントを計算する
Proposed Model attention mechanismの出力はフレーズ内の各単語間の加重合計 Phrase-level Self-Attentionの最終的な出力は各入力単語ベクトルをattention mechanismの出力と比較することで得られる。
Gated Memory Updatin • 先程の手法(PSA)は1つの分割レベルに対する計算 ◦ ツリー構造は様々な粒度で分割できる ◦ 階層的に学習するためにgated memory
updating mechanismを提案 各レイヤ間でパラメータを共有
Sentence Summarization 最終的に固定長の文ベクトルに要約する
Experiments word embedding:GloVe (300次元) 階層レベルT:3(固定) 学習データ:SNLIデータセット 文分類、自然言語推論、テキスト類似性を含む様々なNLPタスク でPSANを評価 構文解析:Stanford PCFG
Parser 3.5.2
Training Setting Natural language inference(NLI)によってエンコーダを学習する 学習データ:Stanford Natural Language Inference (SNLI)
dataset • 549367/9842/9824 sentence pairs
Evaluation Setting 意味論に基づいて解くことができる広範囲のタスクでモデルを評価
Overall Performance
Overall Performance
Analysis of Sentence Length 長い文に対して一貫してPSANが高い 段階的な学習が文中の長期的な依存関係の 学習に役立つ
Visualization and Case Study
Conclusion • 構文情報を用いた文のエンコーダモデルを提案 ◦ 意味的、構文的に重要な単語間の相互作用に注目 • パラメータ数を減らし、メモリ消費を20%以上削減 • 様々なタスクで有効性が示された