5
Error Detection Model
提案モデル
word embeddingsにcontextualized embeddingsを結合して入力する
Slide 6
Slide 6 text
6
Contextualized word embeddings
● BERT, ELMo, Flairの公開されている学習済みのモデルを使う
● Flair: Contextual String Embeddings for Sequence Labeling (Akbik et
al., 2018)
Slide 7
Slide 7 text
BERT
● masked LM と next sentence predictionを学習
● BooksCorpus (0.8 billion words) + English Wikipedia (2.5 billion words)
ELMo
● 3つのlayerの出力を合計したembeddings
● One Billion Word Benchmark corpus (0.8 billion words)
Flair
● One Billion Word Benchmark corpus (0.8 billion words)
7
Contextualized word embeddings
Slide 8
Slide 8 text
8
Results
Rei (2017): ベースモデルを提案
Rei et al. (2017), Kasewa et al. (2018) : 擬似データを使用
提案手法は擬似データ未使用だが、 contextualized emneddingsを使うことで高いスコア
BERTが最も高い