Slide 15
Slide 15 text
[CLS], 𝑡-
./0, …, 𝑡1
./0, [SEP], 𝑡-
.233., …, 𝑡4
.233., [SEP]
tag tweetn
tweet1
単語
単語
t
単語
単語
t
特徴表現として⽂埋め込みを利⽤した学習 15
単語分割
⼊⼒シーケンス
[CLS]のベクトル
⼊⼒ 𝓍
既知タグ ユーザ ツイート
全結合層
…
⁝
BERTによる変換
出⼒ 𝑦1
, …, 𝑦n
max
• タグと各ツイートの
スコアを出⼒
• 最も⾼いスコアが
タグとユーザの適合度
損失関数
• Binary cross entropy loss
• Margin ranking loss
出⼒ 𝑦 ⽬標値(適合度) 𝗍
学習⽅法
• タグとユーザツイートの単語をBERT
の⼊⼒形式に合わせてBERTへ⼊⼒
• [CLS] のベクトルを全結合層へ
⼊⼒して適合度を出⼒
• タグとユーザのツイート毎に適合度
を出⼒
• ツイート毎の適合度の中で
最も⾼い適合度をタグとユーザの
適合度とする
タグとツイートの特徴表現
• BERT: 広範囲の⾃然⾔語タスクで優
れた性能を発揮する双⽅向学習によ
る汎⽤⾔語モデル
• ⽂脈を考慮した埋め込みを獲得でき
るため BERT を⽤いる
誤差