大規模言語モデルのパラメータ数は膨大 (例: 70億) • ファインチューニングする際は、非常に大きなGPUのメモリが必要となる • 元のパラメータのサイズをより小さな行列の積で表し、訓練させる 小さなメモリ消費で、モデルのファインチューニングが可能 図出典: Hu, E. J., Shen, Y., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., ... & Chen, W. (2021). Lora: Low-rank adaptation of large language models. arXiv preprint arXiv:2106.09685.