◦ ある言語でファインチューニングしたモデルを別の言語でゼロショットで使う • 単言語コーパスを連結したコーパスで学習するだけで言語間転移はおこる ◦ mBERT*は様々な言語のWikipediaを連結したコーパスで訓練されているが 言語に依存しない表現を内部的に獲得していることが知られている 3 *BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (Devlin et al., NAACL 2019)