Slide 13
Slide 13 text
BERTのアーキテクチャ
BERT紹介
Embedding
Attention
Attention
Output
Sentence
トークナイズされた文章
固定長のベクトルに埋め込み
×12層のSelf-Attention
固定長のベクトル
ご注文はうさぎですか?
ご, 注文, は, うさぎ, ですか, ?
0, 1, 2, 3, 4, 5
形態素解析
トークンID化
E
0
, E
1
, E
2
, E
3
, E
4
, E
5
ベクトル化
トークナイズ