Slide 15
Slide 15 text
15
1. 大規模言語モデル(LLM)
1-3. 代表的なオープンソースLLMの紹介
開発企業・団体 モデル名 ライセンス 説明・特徴
Meta
Llama 2(7B, 13B, 70B) Llama 2
月間AU数が7億人を超える場合を除き、研究用と商用利用のた
めに無料で利用できる。様々なLLMの基礎モデルとして活用さ
れており、1B,3Bといった軽量モデルやマルチモーダルモデルな
どの様々なモデルが提供されている。
Llama 3(8B, 70B) Llama 3
Llama 3.1(8B, 70B, 405B) Llama 3.1
Llama 3.2(1B, 3B, 11B, 90B) Llama 3.2
Mistral AI
Mistral 7B
Apache 2.0
Mistral 7Bは、SWAやGQAといった革新的な注意メカニズムを
導入しており、同時期に開発されたLlama 2を上回る性能を持つ。
Mixtralは、スパース混合エキスパートモデル(SMoE)を採用し
ており、特化した8のエキスパートがタスクを実行する。
Mixtral(8x7B, 8x22B)
Mistral Nemo(12B)
Microsoft
Phi-2(2.7B)
MIT
小型でありながら高性能を発揮することが特徴。数学やコー
ディング性能が非常に高い。混合エキスパートモデル(MoE)や
マルチモーダルモデルなども提供されている。
Phi-3(mini, small, medium)
Phi-3.5(mini, MoE, Vision)
Google
Gemma(2B, 7B)
Gemma
Geminiを基に構築されたモデルで、言語理解や推論で高いパ
フォーマンスを示す。商用利用が可能だが、禁止事項が多いた
め、ライセンス内容は要確認。
Gemma 2(9B, 27B)
※ 混合エキスパートモデルとは、複数の異なるエキスパートと呼ばれるサブモデルを組み合わせ、
特定のタスクやデータに応じて最適なエキスパートを選択し、予測や推論を行うモデルの構造のこと