, BERTによる文書分類器を学習 . 未拡張のデータセットによる学習と比較し , 高い性能を示した. • 2022年, Liuら[12]は, GPT-3によるテキスト拡張を 質問応答に応用. 質問文とGPT-3により生成した関連 知識をモデルへと入力 . 質問文のみを入力するベースラインと比較し , 高い性能を示した • 2023年, Pratt ら[13]は, CLIPによるゼロショット画像分類 に,大規模言語モデルによる テキスト拡張を応用した CuPLを提案. 画像キャプションのテキストを GPT-3により生成し, モデルに入力. テンプレート「a photo of a {}」ベースのキャプションを用いた手法と比較し ,高い性能を示した [10] K. M. Yoo et al., “GPT3Mix: Leveraging Large-scale Language Models for Text Augmentation,” in Findings of the Association for Computational Linguistics: EMNLP 2021, Punta Cana, Dominican Republic, 2021, pp. 2225–2239. [11] T. B. Brown et al., “Language models are few-shot learners,” in Proceedings of the 34th International Conference on Neural Information Processing Systems. Vancouver, BC, Canada: Curran Associates Inc., 2020, pp. 1877–1901. [12] J. Liu et al., “Generated knowledge prompting for commonsense reasoning,” in Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Dublin, Ireland, 2022, pp. 3154–3169. [13] S. Pratt, I. Covert, R. Liu, and A. Farhadi, “What does a platypus look like? Generating customized prompts for zero-shot image classification,” in 2023 IEEE/CVF International Conference on Computer Vision (ICCV), Paris, France, 2023, pp. 15 645–15 655.