Slide 6
Slide 6 text
ファインチューニングにおける工夫: LoRA
[a]
ScanX2.0
LoRA (Low-Rank Adaptation) の利用
• 大規模言語モデルのパラメータ数は膨大 (例: 70億)
• ファインチューニングする際は、非常に大きなGPUのメモリが必要となる
• 元のパラメータのサイズをより小さな行列の積で表し、訓練させる
小さなメモリ消費で、モデルのファインチューニングが可能
図出典: Hu, E. J., Shen, Y., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., ...
& Chen, W. (2021). Lora: Low-rank adaptation of large language models.
arXiv preprint arXiv:2106.09685.