Slide 11
Slide 11 text
● Bidirectional Encoder Representations from Transformers
○ BERT: Pre-training of Deep Bidirectional Transformers for Language
Understanding
○ Transformerによる双方向のエンコード表現
■ Transformerモデルの一部分を利用したモデル
○ Googleが2018年に発表
● 当時の自然言語処理タスクの最高記録を軒並み塗り替えた
● fine-tuningにより
あらゆる自然言語処理タスクに応用可能な汎用性の高さ
Zeroshot ✕ BERT