確率分布︓𝒂 = 1/𝑛, … , 1/𝑛 ,確率分布︓𝒃 = 1/𝑚, … , 1/𝑚 − 輸送コスト︓𝑪!" = 𝒘! − 𝒘" # $ − ⽂の⾮類似度のモデル︓ 𝑊%(𝒂, 𝒃; 𝑪) • 変更例︓Word Rotatorʼs Distance [Yokoi+ʼ20] − 確率分布︓𝒂 ∝ 𝒘% $, … , 𝒘& $ ,𝒃 ∝ 𝒘′% $, … , 𝒘′' $ − 輸送コスト︓𝑪!" = 1 − cos 𝒘!, 𝒘" # − ⽂の⾮類似度のモデル︓ OT(𝒂, 𝒃; 𝑪) 📄 Kusner+, From Word Embeddings To Document Distances (ICML 2015) 📄 Yokoi+, Word Rotator’s Distance (EMNLP 2020) https://arxiv.org/abs/2004.15003 📄 Schakel&Wilson, Measuring Word Significance using Distributed Representations of Words (arXiv 2015) 📄 Oyama+, Norm of word embedding encodes information gain (arXiv 2022) 単語ベクトルの⻑さには 単語の重要度が近似的に埋め込まれている [Schakel&Wilsonʼ15], [Oyama+ʼ22] なす⾓ (※) が単語の⾮類似度として有⽤ ※ 単語ベクトルの⻑さを無視した距離 NLP マンから⾒るとこちらの⽅が⾃然