Skip-gram I という単語に注目すると、次に現れる単語は I → am, like → a → programmer, dog, cat しかし I の次にいきなり programmer や dog は現れない 8 { I, am, a, programmer, like, dog, cat } /24
Skip-gram I という単語に注目すると、次に現れる単語は I → am, like → a → programmer, dog, cat しかし I の次にいきなり programmer や dog は現れない I という単語の周囲にはどういった単語が出現しやすいかと いう確率を考える 9 { I, am, a, programmer, like, dog, cat } /24
W2Vのニューラルネット 入力層から隠れ層への重み W (N:単語ベクトルの次元) = A B ` a b c d = AA BA `A aA bA cA dA AB BB `B aB bB cB dB ⋮ Aj Bj `j aj bj cj dj 隠れ層の出力(活性化関数なし) = A B ` a b c d 0 1 0 ⋮ 0 = B → 注目する単語の単語ベクトルそのものになる ℎ = -. = -. 29/26