Upgrade to Pro — share decks privately, control downloads, hide ads and more …

リソース制限環境下でのローカルLLM構築術

 リソース制限環境下でのローカルLLM構築術

ローカルLLM(Ollama+軽量LLM)とMCPの使い方について、以下の手順で説明します。
1. クラウドLLM、ローカルLLMの課題
2. Ollama+軽量LLMで始めよう!
3. MCPとは
4. MCPHost+Ollama

Avatar for kouki.miura

kouki.miura

July 14, 2025

More Decks by kouki.miura

Other Decks in Programming

Transcript

  1. 長男が飼っている モンちゃん(ハリネズミ) がアイコン Self Introduction ・ドゥウェル株式会社 (医療系IT開発・導入会社)に所属 ・マネージャー(プレイング・マネージャー) ・TypeScript, Vue.js,

    Node.js, Java,C#, PHP ・3児の父 ・休日は子どものサッカー観戦 ・参加している勉強会  札幌PHP勉強会、JBUG札幌、JavaDO、ゆるWeb勉強会、えびてく、  クラメソ札幌IT勉強会(仮)、AWS初心者LT会in札幌、  札幌すごいAI会、札幌IT石狩鍋、hokkaido.js  等
  2. 3.MCPとは MCP Host (Included LLM and MCP Client) MCP Server

    MCP ローカルファイル データベース WebAPI 等 サーバー側の機能として以下が定義されている ・プロンプト プロンプトのテンプレートを返す ・リソース 副作用のないリソースアクセス ・ツール 副作用のあるリソースアクセス https://modelcontextprotocol.io/specification/2025-03-26/server/index
  3. 4.MCPHostとOllama 手順(10分くらい) https://github.com/mark3labs/mcphost ①Go言語インストール ②MCPHostをインストール ③MCPクライアント設定後、実行 $ cat .mcp.json {

    "mcpServers": { "filesystem": { "type": "local", "command": ["npx", "@modelcontextprotocol/server-filesystem", "/tmp/test"], "environment": {}, "allowedTools": ["read_file", "write_file"], "excludedTools": ["delete_file"] }, } } $ $HOME/go/bin/mcphost -m ollama:qwen3:0.6b 動くはず。でしたが動きませんでした。ごめんなさい... (独自実装しているMCP Host(Ollama+Qwen3:0.6b+MCP Client) + MCP Serverでは動作することを確認済み。<-an excuse.)