Llama 2(7B, 13B, 70B) Llama 2 月間AU数が7億人を超える場合を除き、研究用と商用利用のた めに無料で利用できる。様々なLLMの基礎モデルとして活用さ れており、1B,3Bといった軽量モデルやマルチモーダルモデルな どの様々なモデルが提供されている。 Llama 3(8B, 70B) Llama 3 Llama 3.1(8B, 70B, 405B) Llama 3.1 Llama 3.2(1B, 3B, 11B, 90B) Llama 3.2 Mistral AI Mistral 7B Apache 2.0 Mistral 7Bは、SWAやGQAといった革新的な注意メカニズムを 導入しており、同時期に開発されたLlama 2を上回る性能を持つ。 Mixtralは、スパース混合エキスパートモデル(SMoE)を採用し ており、特化した8のエキスパートがタスクを実行する。 Mixtral(8x7B, 8x22B) Mistral Nemo(12B) Microsoft Phi-2(2.7B) MIT 小型でありながら高性能を発揮することが特徴。数学やコー ディング性能が非常に高い。混合エキスパートモデル(MoE)や マルチモーダルモデルなども提供されている。 Phi-3(mini, small, medium) Phi-3.5(mini, MoE, Vision) Google Gemma(2B, 7B) Gemma Geminiを基に構築されたモデルで、言語理解や推論で高いパ フォーマンスを示す。商用利用が可能だが、禁止事項が多いた め、ライセンス内容は要確認。 Gemma 2(9B, 27B) ※ 混合エキスパートモデルとは、複数の異なるエキスパートと呼ばれるサブモデルを組み合わせ、 特定のタスクやデータに応じて最適なエキスパートを選択し、予測や推論を行うモデルの構造のこと