Slide 17
Slide 17 text
positional encoding
17
2 Transformer
解体新書
a) sin関数とcos関数で明示的に与える(学習不要)
• Sinusoidal positional embeddings (SPEs) [Vaswani+, NIPS2017]
• Transformerの元論文をはじめとしてよく使われている
𝑃𝐸 𝑝𝑜𝑠,2𝑖
= sin 𝑤𝑖
⋅ 𝑝𝑜𝑠 = sin
1
100002𝑖/𝑑𝑚𝑜𝑑𝑒𝑙
⋅ 𝑝𝑜𝑠
𝑃𝐸 𝑝𝑜𝑠,2𝑖+1
= cos 𝑤𝑖
⋅ 𝑝𝑜𝑠 = sin
1
100002𝑖/𝑑𝑚𝑜𝑑𝑒𝑙
⋅ 𝑝𝑜𝑠
𝑆𝑃𝐸
= 𝑃𝐸 𝑝𝑜𝑠,0
, 𝑃𝐸 𝑝𝑜𝑠,1
, 𝑃𝐸 𝑝𝑜𝑠,2
, 𝑃𝐸 𝑝𝑜𝑠,3
, ⋯ , 𝑃𝐸 𝑝𝑜𝑠,2𝑛
, 𝑃𝐸 𝑝𝑜𝑠,2𝑛+1
= sin 𝑤0
𝑡 , cos 𝑤0
𝑡 , sin 𝑤1
𝑡 , cos 𝑤1
𝑡 , ⋯ , sin 𝑤𝑛
𝑡 , cos 𝑤𝑛
𝑡
つまり、SPEは𝑤𝑖
ごとにsinとcosの組を並べて得られるベクトル