Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ローカルでLLMを使ってみよう

Avatar for kosmosebi kosmosebi
February 21, 2026

 ローカルでLLMを使ってみよう

Avatar for kosmosebi

kosmosebi

February 21, 2026
Tweet

More Decks by kosmosebi

Other Decks in Technology

Transcript

  1. Self Introduction { "name": "Keiji KAMEBUCHI", "corporation": "pnop Inc.", "web":

    "https://azure.moe/", "X": "@kosmosebi", "awards": [ "Microsoft Regional Director" ], "location": "Osaka, Japan", "YouTube": "https://www.youtube.com/@kosmosebi" } Senior Fellow @kosmosebi 2
  2. なぜローカルで動かすのか • クラウドはお金がかかるから (PC と電気代は無視するものとする) • 扱いたいデータがセンシティブ • この辺は緩和策もあるので割と微妙な動機ではある •

    速度的なところ • 微妙 • クラウド側のほうが Inference/Reasoning もレイテンシーも速い場合も ある • 結局? • 動かしたいから、PC が余ってる、コストを気にせず大量に処理したい、他 • 浪漫 5
  3. 言語モデルをローカルで動かす方法 • Ollama https://ollama.com/ • OpenAI、Anthropic Messages API 互換のエンドポイントあり •

    クラウド版もあり • LM Studio https://lmstudio.ai/ • OpenAI、Anthropic Messages API 互換のエンドポイントあり • GUIが充実、商用ライセンス要件あり • Foundry Local https://www.foundrylocal.ai/ • Microsoft 謹製、現在 Preview • OpenAI 互換APIあり、Windows Server 2025 での動作も想定 • llama.cpp や vLLM とかもあるけど… • GGUF とか ONNX とか一旦置いときたい • カリカリも楽しいけど、今回はお手軽さで上記3つから選択 • OpenAI や Anthropic の互換 API があるといろいろ便利 • 最近はCPUオフロードとかもしてくれるし、動作環境の制限がだいぶ減った 6
  4. Foundry Local • 現状 CLI と SDK のみ • Foundry

    Local のサービスやモデルロードなどを操作するた めの SDK が準備されてる • SDK 単体でロードや InProc での利用が可能 • 今のところ Anthropic API 互換はない 9
  5. アプリから利用する • Claude Code • Anthropic API 互換で Function Calling

    対応モデルならたぶん 大丈夫? • 環境変数設定してモデル指定で起動すれば OK • ANTHROPIC_AUTH_TOKEN … 適当でいい • ANTHROPIC_BASE_URL … 各ツールのエンドポイント • ollama … http://localhost:11434 • LM Studio … http://localhost:1234 • ollamaなら直接起動可 • ollama launch claude --model gpt-oss:20b 10
  6. 11

  7. アプリから利用する • Visual Studio の GitHub Copilot • Ask (質問)のみ利用可能

    • モデルの管理で Foundry Local でダウンロードされてるモデルを追 加できる • 応答に特殊トークン混じりやすい?(モデルによるのかもしれない) 12
  8. アプリから利用する • Visual Studio Code の GitHub Copilot • Ask

    (質問)のみ利用可能 • モデルの管理で Ollama と Foundry Local でダウンロードされて るモデルを追加できる • Foundry Local は AI Toolkit 経由らしく、foundry コマンドなどでダウン ロードしたものとは別のものを既定で参照してるぽい 13
  9. おまけ • Windows AI APIs • Phi Silica を使ったり NPU

    を使って AI モデルを活用したアプリケー ションが作れる • Copilot + PC でないと、ほぼ使えない • Foundry Local • ローカル PC 上でモデルを実行したりできる • Foundry Local で動作する形式のモデルなら Copilot + PC でなくても動 作させることができる • CLI や REST API でアクセスするのでアプリの自由度も高い • ※ macOS 版もある • Windows ML • ONNX ランタイム経由で Windows 上で ONNX AI モデルを動かしたり、モ デルを変換、トレーニング、ファインチューニングしたりできる 14
  10. まとめ • ローカルで愛でるのも楽しい…はず • 大半のケースはクラウド上のモデルを使ったほうが手間が無い • いろんな意味でエッジなケースか? • コスト、検閲、ネットワーク、他いろいろ •

    基本的にリソースの取り合い… • Claude Code 等から使うと結構 PC のスペックが必要 • ツールが変わるとモデルの管理方法もかわる(ファイルサイズ注意) 15