Slide 7
Slide 7 text
言語モデルが単語 をどの程度習得しているかは、その単語のサプラ
イザルで評価する
サプライザル: ある単語 の周囲の に対する予測確率の負の対数
のこと。
おおむね、人間が読みやすい(自然)と感じる文においてサプライザルが低
いとされている
また、事前学習が完了した言語モデルのサプライザルから前述の Age of
Acquisition を予測可能とする研究もある (つまり、モデルにとって予測が
難しい単語は人間も習得が遅い傾向が見られることが分かっている)
前提: モデルの単語習得
w
w w
, ...w
1 k
− log
P (w∣w
, ..., w
)
2 1 k
3
4
5
3: 「周囲の単語」とはモデル依存であり、BERT や Bi-LSTM のような双方向から単語予測するモデルでは左右両方
の context を指し、GPT-2 や通常のLSTMのような左から単語予測するモデルでは左の context のみを指す
4: 反論もある: Kuribayashi et al., Lower Perplexity is Not Always Human-Like (ACL 2021)
5: Eva Portelance, Judith Degen, andMichael Frank. 2020. Predicting age of acquisition in early word
learning using recurrent neural networks. In Proceedings of CogSci 2020. 7/19