Slide 11
Slide 11 text
モデルマージでできること
11
[1] Wolfe, “Model Merging: A Survey”, “https://cameronrwolfe.substack.com/p/model-merging”, 2024年10月18日閲覧.
[2] Li et al., “Deep Model Fusion: A Survey”, arXiv preprint, 2023.
[3] Yang et al., “Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities”, arXiv preprint, 2024.
⚫ 複数モデルの能力の統合 [1, 2, 3]
➢ 同モダリティでの能力統合(例:英語に強いLLM + 数学に強いLLM)
➢ 目的関数が違うモデルの能力統合(例:解決能力特化LLM + 安全性特化LLM)
➢ LoRAのマージ(例:Llamaを日本語でLoRA FTとLlamaを数学でLoRA FTのLoRA部分)
➢ 副次的にレイテンシを減らせる(アンサンブルする必要がない)