Slide 10
Slide 10 text
AI人格を用意する
● ベースモデルにはrinna/japanese-gpt-neox-3.6b-instruction-ppoを使用
● 8名の方にtwitterアーカイブを提供頂き、データ加工の上でファインチューン
○ 試験的パラレルワールドでは100個のお題についてランダムにつぶやいてもらう設計なので、
各twitterのつぶやきがどのお題に近いか類似検索し、inputがお題、outputがtwitterつぶやきと
なるようにデータ加工した。
● LoRA作成にあたってはPEFTを利用
○ learning_rate: 3e-5
○ epoch: 3
○ これでA6000で5〜6時間程度