Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介20181126_Learning and Evaluating Interpreta...
Search
T.Tada
November 26, 2018
Technology
0
66
文献紹介20181126_Learning and Evaluating Interpretable Sentence Embeddings
T.Tada
November 26, 2018
Tweet
Share
More Decks by T.Tada
See All by T.Tada
文献紹介_202002_Is artificial data useful for biomedical Natural Language Processing algorithms?
tad
0
59
文献紹介_202001_A Novel System for Extractive Clinical Note Summarization using EHR Data
tad
0
150
文献紹介_201912_Publicly Available Clinical BERT Embeddings
tad
0
160
文献紹介_201911_EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks
tad
0
210
文献紹介_201910_Do Neural NLP Models Know Numbers? Probing Numeracy in Embeddings
tad
0
100
文献紹介_201909_Sentence Mover’s Similarity_ Automatic Evaluation for Multi-Sentence Texts
tad
0
150
文献紹介_201908_Medical Word Embeddings for Spanish_ Development and Evaluation
tad
0
63
文献紹介_201907_Is Word Segmentation Necessary for Deep Learning of Chinese Representations
tad
0
95
文献紹介_201906_Predicting Annotation Difficulty to Improve Task Routing and Model Performance for Biomedical Information Extraction
tad
0
94
Other Decks in Technology
See All in Technology
ビジネス職が分析も担う事業部制組織でのデータ活用の仕組みづくり / Enabling Data Analytics in Business-Led Divisional Organizations
zaimy
1
310
マルチプロダクト環境におけるSREの役割 / SRE NEXT 2025 lunch session
sugamasao
1
410
Lufthansa ®️ USA Contact Numbers: Complete 2025 Support Guide
lufthanahelpsupport
0
250
Enhancing SaaS Product Reliability and Release Velocity through Optimized Testing Approach
ropqa
1
250
VS CodeとGitHub Copilotで爆速開発!アップデートの波に乗るおさらい会 / Rapid Development with VS Code and GitHub Copilot: Catch the Latest Wave
yamachu
2
340
アクセスピークを制するオートスケール再設計: 障害を乗り越えKEDAで実現したリソース管理の最適化
myamashii
1
330
「Chatwork」のEKS環境を支えるhelmfileを使用したマニフェスト管理術
hanayo04
1
250
事例で学ぶ!B2B SaaSにおけるSREの実践例/SRE for B2B SaaS: A Real-World Case Study
bitkey
1
340
敢えて生成AIを使わないマネジメント業務
kzkmaeda
2
510
QuickSight SPICE の効果的な運用戦略~S3 + Athena 構成での実践ノウハウ~/quicksight-spice-s3-athena-best-practices
emiki
0
260
CDK Vibe Coding Fes
tomoki10
1
540
AIエージェントが書くのなら直接CloudFormationを書かせればいいじゃないですか何故AWS CDKを使う必要があるのさ
watany
18
7k
Featured
See All Featured
Rails Girls Zürich Keynote
gr2m
95
14k
Intergalactic Javascript Robots from Outer Space
tanoku
271
27k
Docker and Python
trallard
45
3.5k
The Power of CSS Pseudo Elements
geoffreycrofte
77
5.9k
The Language of Interfaces
destraynor
158
25k
Build The Right Thing And Hit Your Dates
maggiecrowley
37
2.8k
Mobile First: as difficult as doing things right
swwweet
223
9.7k
Easily Structure & Communicate Ideas using Wireframe
afnizarnur
194
16k
Into the Great Unknown - MozCon
thekraken
40
1.9k
How to Think Like a Performance Engineer
csswizardry
25
1.7k
Responsive Adventures: Dirty Tricks From The Dark Corners of Front-End
smashingmag
251
21k
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
138
34k
Transcript
- 文献紹介 2018/11/26 - Learning and Evaluating Sparse Interpretable Sentence
Embeddings 長岡技術科学大学 自然言語処理研究室 多田太郎
About the thesis Authors : Valentin Trifonov, Octavian-Eugen Ganea, Anna
Potapenko*, Thomas Hofmann ETH Zurich, Switzerland, National Research University Higher School of Economics, Russia* Conference : Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pages 200–210 2
Abstract ・sentence embedding を解釈したい ・ベクトルをスパースにする手法と可読性の評価手法を提案 ・密なベクトルより解釈性が増加 3
Introduction 解釈性とスパースな表現には関連性がある (Murphy et al. : 2012) ベクトルのスパース化には2つの手法がある ・ベクトルを生成し、後処理 ・ベクトル生成時にスパースなものとする
4
Models スタンダードなseq2seqに基づき以下に取り組む 1. Enforcing Sparsity by Post-Processing Dense Embeddings 2.
Enforcing Sparsity during Embedding Learning ・k-Sparse ・Sparsemax 5
Models 1. Enforcing Sparsity by Post-Processing Dense Embeddings Eは2000次元のsparseなベクトルとなる 6
Models 2. Enforcing Sparsity during Embedding Learning スパース化layerでdenseなベクトルZをsparseなベクトル Eに変換するように学習 ・k-Sparse
0でない次元数kを固定したスパース表現 ・Sparsemax softmaxの応用,このsparseな確率分布を利用 上記kを固定しないため、各文に対して柔軟 7
Experiments 1. Training Details ボキャブラリサイズ:20,000 word embeddings : 100 次元
GRU(Cho et al. : 2014)を使用 入力と同じ文字列が出力される様に学習 2. Data ・the Cornell Movie-Dialogs Corpus: 500,000サンプル (バリデーションとテストに50,000サンプルずつ) ・The MS COCO: 600,000サンプル 8
A Quantitative and Automated Evaluation Metric 9 トピック内の単語対の平均単語距離を利用. Topic coherence
:自動評価手法(Newman et al. 2010) をベースとする トピック内の単語ではなく,文ベクトル内の次元でランキングし、上位を使用. 合わせて全非0次元を考慮した場合の比較として、ランダムな選定でも実験.
A Quantitative and Automated Evaluation Metric 類似度計算の手法 10 1. Jaccard
Similarity 2. BoW Similarity 3. WMD Similarity The Word Mover’s Distance(Kusner et al. 2015) Word2Vevを利用したdocument distance measure
Results 1. Reconstruction Quality スパースになるにつれて結果が悪くなる 文法と関連したトピックというの面では上手く生成できている 11
Results 2. Highest-Ranked Samples 各ベクトルで上位となった値を使用 12
Results 3. Quantitative Evaluation 13
Results 4. Downstream Tasks SentEval framework (Conneau et al. :
2018)のMovie-Dialogsのみを用い実験 14
Discussion ・いい解釈性は取れたが,文の再構築では高いエラー ・スパース性が高いと 各文書の共通的な要素は得られるが,特徴的な情報が落ちてしまう ・分類タスクへの応用では性能が悪化 ・後処理とモデル内でのスパース化では,モデル内での処理の方が若干性能が良さそう スパースlayerで情報が落ち,高いLoss値となった モデルが複雑となるため,トレードオフな関係の様 Sparsemaxでスパース性kを固定しなくて良り,文の特徴に対して柔軟となった 15
Conclusion ・NNの中間表現は基本的に理解できないが,解釈性を得る事は重要 ・スパース化により情報が落ち,タスクでの精度は悪化 ・本論文のスパース化で文ベクトルの解釈性は増した ・評価手法では人間の直感的な理解に沿ったスコアになっている 他の類似度計算手法を用いることも出来,リーズナブル ・DLモデルを理解するヒントとなる可能性 16