Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ローカルLLMを用いた簡単なLLMアプリを作ってみた / Building a Simple ...

Avatar for ryu-ki ryu-ki
July 11, 2025
16

ローカルLLMを用いた簡単なLLMアプリを作ってみた / Building a Simple LLM App with Local LLM

Avatar for ryu-ki

ryu-ki

July 11, 2025
Tweet

Transcript

  1. ┃LLMを簡単にローカル環境で実行できるように してくれるOSS ‐ 今回は公開されているDockerイメージを利用 • ollama/ollama - Docker Image |

    Docker Hub[2] Ollama[1] 7 ダウンロードしたモデルを管理・呼び出し [1] https://ollama.com/ [2] https://hub.docker.com/r/ollama/ollama
  2. ┃Gemma(Google) ‐ 軽量(ノートPC・CPUのみでの動作可能) ┃Llama(Meta AI(旧Facebook)) ‐ 完全オープンソース[4] ┃Qwen(Alibaba Cloud) ‐

    多言語対応(日本語でも高い性能) Ollamaで利用できるモデル例[3] 8 [3] https://ollama.com/library [4] https://github.com/meta-llama/llama-models
  3. Ollama導入|検証環境 ┃PCスペック ‐ OS:Windows 11 Home ‐ CPU:AMD Ryzen 5

    4500 6-Core Processor 3.60 GHz ‐ GPU:NVIDIA GeForce RTX 4060 Ti ‐ メモリ:16GB ┃使用ツール ‐ WSL2(Ubuntu 24.04.1 LTS) ‐ Docker(Docker Desktop) 11