Slide 2
Slide 2 text
Copyright © RevComm Inc.
LoRA: Low-Rank Adaptation of Large Language Models
Edward Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang ,Weizhu Chen
https://arxiv.org/abs/2106.09685
LoRAとは
● 再学習するベースモデルのパラメータを固定し、fine-tuning用に学習可能な階数分解行列(rank
decomposition matrices)をモデルに挿入
● モデルのパラメータを更新する従来のfine-tuningと比較して
○ 更新するパラメータ数を削減し、GPU要件を下げられる
○ 差分のみ保存すればよく、ストレージ要件も下げられる
○ かつ、同等の精度を出せる
2