Slide 33
Slide 33 text
BERTの事前訓練を工夫する
33
● Whole Word Masking: サブワード単位ではなく単語単位でマスクする
(BERTの別バージョンとしてGoogleが公開)
○ 質問応答(SQuAD)、自然言語推論(MNLI)で性能改善
● SpanBERT: 連続した1〜n個(確率的に長さを選択)のサブワードを隠す
(Joshi et al., 2019)
○ 質問応答、関係抽出、GLUEタスクにおいて性能改善
● Salient Span Masking: 入力テキストに固有表現抽出器を適用して、検出された固有表現の
範囲を全てマスクする (Guu et al., 2020)
○ 複数のオープンドメイン質問応答データセットにて性能改善
Joshi et al., SpanBERT: Improving Pre-training by Representing and Predicting Spans. TACL 2019.
Guu et al., REALM: Retrieval-Augmented Language Model Pre-Training. Arxiv preprint 2020.