Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
ローカルLLM
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
NearMeの技術発表資料です
PRO
November 07, 2025
100
0
Share
ローカルLLM
NearMeの技術発表資料です
PRO
November 07, 2025
More Decks by NearMeの技術発表資料です
See All by NearMeの技術発表資料です
OpenCode Introduction
nearme_tech
PRO
0
14
【Browser Automation × AI】 Stagehandを試してみよう
nearme_tech
PRO
0
53
AIを用いた PID制御で部屋 の温度制御をしてみた
nearme_tech
PRO
0
60
CopilotKit + AG-UIを学ぶ
nearme_tech
PRO
3
280
Tile38 Overview
nearme_tech
PRO
0
65
Rust 製のコードエディタ “Zed” を使ってみた
nearme_tech
PRO
0
870
実践で使えるtorchのテンソル演算
nearme_tech
PRO
0
39
ローカルLLMを⽤いてコード補完を⾏う VSCode拡張機能を作ってみた
nearme_tech
PRO
0
680
初めてのmarimo (ハンズオン)
nearme_tech
PRO
0
53
Featured
See All Featured
Navigating the Design Leadership Dip - Product Design Week Design Leaders+ Conference 2024
apolaine
0
260
Mind Mapping
helmedeiros
PRO
1
140
Dealing with People You Can't Stand - Big Design 2015
cassininazir
367
27k
16th Malabo Montpellier Forum Presentation
akademiya2063
PRO
0
91
Code Reviewing Like a Champion
maltzj
528
40k
The Myth of the Modular Monolith - Day 2 Keynote - Rails World 2024
eileencodes
27
3.4k
<Decoding/> the Language of Devs - We Love SEO 2024
nikkihalliwell
1
180
CSS Pre-Processors: Stylus, Less & Sass
bermonpainter
360
30k
Scaling GitHub
holman
464
140k
Faster Mobile Websites
deanohume
310
31k
Building Adaptive Systems
keathley
44
3k
Organizational Design Perspectives: An Ontology of Organizational Design Elements
kimpetersen
PRO
1
670
Transcript
0 ローカルLLM 2025-11-06 第134回NearMe技術勉強会 Takuma KAKINOUE
1 LLMをローカルで動かしたい • 楽にできる⽅法はないか? → Ollamaを使ってみよう!(https://ollama.com/) • どのモデルを動かそう? ◦ https://ollama.com/search
◦ gpt-ossが気になったのでgpt-oss:20bを動かしてみる
2 動かし⽅ • ollama pull gpt-oss:20b • ollama run gpt-oss:20b
3 環境 • Windows11 • GPU:RTX5070Ti(VRAM:16GB)
4 動かしてみた結果 約12秒で完全な出⼒が得られた! AIからの返答は、「前提知識があれば理解できる が、⼩学⽣が理解するのは難しそう」といった 感じ..
5 Mac(M2 Pro)でも試してみた • brew install ollama • ollama serve
• ollama pull gpt-oss:20b • ollama run gpt-oss:20b 同じ質問をしたら、完全な出⼒が得られるのに約43秒かかった → 5070tiより遅いが実⽤的なレベル ※出⼒の内容は若⼲異なったが(⻑さは同程度)、質はどっこいどっこい
6 本家ChatGPT(無課⾦版)では 28秒かかったが、 内容は⼀番わかりやす かった! (モデルはOSS版と異な る模様)
7 結果 • local(RTX5070Ti) ◦ 処理時間:約12秒、出⼒精度:普通 • local(Mac M2 Pro)
◦ 処理時間:約43秒、出⼒精度:普通 • 無課⾦版ChatGPT ◦ 処理時間:約28秒、出⼒精度:良い
8 コーディングもやらせてみた結果(local: Mac M2 Pro) > FizzBuzz問題を解くコードをPythonで書いて。
9 今後の展望 • Toolsなどを使って⾃作コーディングエージェントを作ってみる (余談) DGX Sparkほしい..! https://www.nvidia.com/ja-jp/products/workstations/dgx-spark/
10 Thank you