Slide 3
Slide 3 text
word embedding に数理的&統一的解
釈を与えてみようシリーズ
[Levy and Goldberg, 2014b] “Neural Word Embedding as
Implicit Matrix Factorization”:
「各 embedding 手法は SPPMI (Shifted Positive PMI)
word‒context matrix の行列分解として理解できる」
〈vec(w),vec(c)〉≈ max(PMI(w,c) ‒ log k, 0)
[Arora+, TACL 2016] “A Latent Variable Model Approach
to PMI‒based Word Embeddings”:
ランダムウォークする文脈ベクトルから単語ベクトルが
生成されるモデルから, 〈v,w〉≈ PMI(v,w) を導出
低ランク近似によって「意味方向が, ベクトルの差の第1
主成分に表れること」「学習されたベクトルたちが超球
上に集中すること (内積の大きさ ≈ cos の大きさ ∝ 差の
2ノルムの小ささ + k)」も示している