Methodology
● Skip-gram
○ 単語列 {w
1
, w
2
… w
T
}を訓練データ
○ ターゲット語w
t
文脈語w
k
○ 入力:ターゲット語 w
t
のone-hotベクトル x
t
○ 出力:位置 j に各単語が出現する確率を持つベクトル y
j
○ 単語 w
t
の周辺に単語 w
k
出現する確率
と表される。
v
wt
IN はw
t
の入力ベクトル、v
wt
OUT はw
k
の出力ベクトル
v
wt
IN・v
wt
OUT はドット積 13
x
t
入力単語ベク
トル行列vIN
出力単語ベク
トル行列
vOUT
y
c
y
2
y
1
Methodology
● Skip-gram with Negative Sampling (SGNS)で学習コーパスから単語の共起情報
を学習
○ 目的関数
○ w
t
とw
t
の近くに出現した単語 w
k
について、logσ( v
wt
IN ・v
wk
OUT)の値が大きくなるように学習
○ 単語類似度を測るには vINが使われているが、 vOUTを使うことによって、学習した際の単語の共起情
報も考慮するため、本研究は σ( v
wt
IN ・v
wk
OUT) を活用する
v
wt
IN 入力ベクトル σ(x) シグモイド関数
v
wk
OUT 出力ベクトル
w
t
ターゲット語
w
k
正例の文脈語 w
n
負例の文脈語
15
logσ( v
wt
IN ・v
wk
OUT) + Σ
wn∊Wneg
logσ( v
wt
IN ・― v
wn
OUT )
Slide 16
Slide 16 text
Methodology
● 一般性スコア:着目単語とその周辺単語との類似度の加重平均
○ スコアが大きい⇒一般的用法 スコアが小さい⇒非一般的用法
○ αは任意の値でもよいが、本研究は着目単語と距離の近い単語に大きい重みを付ける
○ α
wj
=m + 1 - d
wj
(m: 窓幅,d: ターゲット語との距離)
■ αは正の整数
■ 距離が遠いほど重みが小さい⇒ Decaying weight
w
t
:ターゲット語
w
c
:文脈語の集合
α
wj
:wjの重み
σ(x) :シグモイド関数
16