Slide 7
Slide 7 text
Transformer への発展
word2vec BERT, GPT, ...
Attention
Word Embedding Transformer
Word Embedding※ : 単語を(意味?も保ちつつ)ベクトル化
朝,食べる → p(ごはん), p(パン) >> p(ねこ),p(歯車)
Attention : 関連しそうな単語との関係から再検討
確率が同じくらいなら,意味も近いのでは??
細胞核,原子核,核の傘 … 同じ 核 でも意味は異なる
同じ語でも,文脈(周りの単語)で意味が異なるのでは?
Transformer : 語順・文脈を考慮しつつ,次に出てきそうな単語を予測
7
※ 分散表現