Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ローカルLLM

 ローカルLLM

More Decks by NearMeの技術発表資料です

Transcript

  1. 5 Mac(M2 Pro)でも試してみた • brew install ollama • ollama serve

    • ollama pull gpt-oss:20b • ollama run gpt-oss:20b 同じ質問をしたら、完全な出⼒が得られるのに約43秒かかった → 5070tiより遅いが実⽤的なレベル ※出⼒の内容は若⼲異なったが(⻑さは同程度)、質はどっこいどっこい
  2. 7 結果 • local(RTX5070Ti) ◦ 処理時間:約12秒、出⼒精度:普通 • local(Mac M2 Pro)

    ◦ 処理時間:約43秒、出⼒精度:普通 • 無課⾦版ChatGPT ◦ 処理時間:約28秒、出⼒精度:良い