A Cognitive Regularizer for Language Modeling (J Wei, C Meister, R Cotterell @ ACL-IJCNLP 2021)
Jason Wei, Clara Meister, Ryan Cotterell. 2021. A Cognitive Regularizer for Language Modeling. ACL-IJCNLP 2021, pages 5191-5202.
第13回最先端NLP勉強会(発表者:岡崎直観)
https://sites.google.com/view/snlp-jp/home/2021
Ryan Cotterell. ACL-IJCNLP 2021, pages 5191-5202. 読み手: 岡崎 直観 東京工業大学 情報理工学院 okazaki at c.titech.ac.jp 「デザイン・レイアウトで伝わる!プレゼン資料」のデザイン・テンプレート(https://ppt.design4u.jp/template/)を使用して作成しています Uniform Information Density (UID)
UID仮説を支持する別の形のエビデンスを示したことになる 今後の課題は、その他の心理言語学の理論の統合や、機械翻訳などの条件付 き言語モデルへの適用、その他の言語タスクへの応用など 著者ポスターでは、surprisalを使った非常に関連の深い論文に言及あり T Kuribayashi, Y Oseki, T Ito, R Yoshida, M Asahara, K Inui. 2021. Lower Perplexity is Not Always Human-Like. ACL-IJCNLP. [1] 日本語ではUID仮説が成り立たないらしい(文末のsurprisalが低くなる) 【感想】研究の仮説が明白で、実験結果の考察や分析も興味深い 15 [1] 第7会NLPコロキウム. Lower Perplexity is Not Always Human-Like. https://www.youtube.com/watch?v=Xd_KfgWVWsI