Attention >
翻訳タスクの場合は
特徴量 は文章内の単語の特徴ベクトルの集合として扱われる。文章をモ
デルに入力する場合は一般的に最小単位(
トークン; token)
に分割する
tokenize
とtoken
をベクトルに変換するword embedding
という前処理が行わ
れる。
"
雨が降る。"
→ ["
雨", "
が", "
降る", "
。"]
→
= [0, 1, 3], #
雨
= [3, 4, -1], #
が
= [1, 0, -4], #
降る
= [-3, 2, 1], #
。
{z
}
i
z
0
z
1
z
2
z
3
5