Transformer Encoderによって構成される自然言語処理モデル ファインチューニングにより分類や質問応答など様々なタスクに おいて高精度な処理を行うことができる 17 BERT CLSベクトル シグモイド関数 類似、非類似 1.Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional trans- formers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1, pp. 4171–4186, 2019. 階 建て 二 階 建て バス ところ き