Lock in $30 Savings on PRO—Offer Ends Soon! ⏳
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
ローカルLLMをJavaScriptで(少しAIエージェントSDKなどの話も) / 冬のJav...
Search
you(@youtoy)
PRO
December 13, 2025
0
19
ローカルLLMをJavaScriptで(少しAIエージェントSDKなどの話も) / 冬のJavaScript祭り @Pleasanter Lounge
you(@youtoy)
PRO
December 13, 2025
Tweet
Share
More Decks by you(@youtoy)
See All by you(@youtoy)
Webの技術で「特殊なゲーム用コントローラーや他デバイスなど」とブラウザを連携させる / HTML5 11th Anniversary
you
PRO
0
64
ブラウザのAPIで Nintendo Switch用の特殊なゲーム用コントローラーを体験型コンテンツに / IoTLT @ストラタシス・ジャパン
you
PRO
0
170
ローカルLLMとLINE Botの組み合わせ その2(EVO-X2でgpt-oss-120bを利用) / LINE DC Generative AI Meetup #7
you
PRO
1
190
生成AIとM5Stack / M5 Japan Tour 2025 Autumn 東京
you
PRO
0
370
子ども向けの活動や自身のモノづくり活動などでやったこと / micro:bit ファンの集い
you
PRO
0
19
ブラウザのAPIで色々なデバイスをあれこれ扱ってみた話(主にWeb HID API) / IoTLT @JLCPCB オープンハードカンファレンス
you
PRO
0
150
ヒーローズ・リーグの応募作品で使ったデバイス・アイテム・ライブラリなど / #ヒーローズリーグ 2025 開発素材LT
you
PRO
0
53
最近発売された端末+UIFlow 2.0の組み合わせ(+1.0の話)をUSB接続で / ビジュアルプログラミングIoTLT vol.21
you
PRO
0
120
AIエージェント開発用SDKとローカルLLMをLINE Botと組み合わせてみた / LINEを使ったLT大会 #14
you
PRO
0
230
Featured
See All Featured
Distributed Sagas: A Protocol for Coordinating Microservices
caitiem20
333
22k
Raft: Consensus for Rubyists
vanstee
141
7.2k
I Don’t Have Time: Getting Over the Fear to Launch Your Podcast
jcasabona
34
2.5k
Large-scale JavaScript Application Architecture
addyosmani
515
110k
KATA
mclloyd
PRO
32
15k
Building a Modern Day E-commerce SEO Strategy
aleyda
45
8.3k
Making Projects Easy
brettharned
120
6.5k
CSS Pre-Processors: Stylus, Less & Sass
bermonpainter
359
30k
Keith and Marios Guide to Fast Websites
keithpitt
413
23k
How Fast Is Fast Enough? [PerfNow 2025]
tammyeverts
3
390
A Tale of Four Properties
chriscoyier
162
23k
Why You Should Never Use an ORM
jnunemaker
PRO
61
9.6k
Transcript
2025年12月13日 (土) 冬のJavaScript祭り @Pleasanter Lounge 豊田陽介( ) @youtoy ローカルLLMをJavaScriptで (少しAIエージェントSDKなどの話も)
自己紹介 豊田陽介( ) @youtoy ▶ IT系コミュニティ主催、 イベント登壇や運営なども ▶ M5StackでIoT、AI・機械
学習の書籍を共著・単著で ▶ 子ども向けプログラミング サポート活動なども プライベートでの活動 ▶ ガジェット ▶ 描画系/IoT/AI・機械学習系 ▶ ビジュアルプログラミング ▶ JavaScript 好きな技術など
ブラウザで動く体験型の作品を作るのが好きです 過去の登壇では、こういった方向の技術の話をしていました (ブラウザでAI・機械学習や描画系ライブラリの話など)
【今日の本題】 ローカルLLM と JavaScript こちらの話題によった内容が けっこうあるかも
今日の話の流れ 1 2 3 4 30万円未満の PC などでのローカルLLM 使っているマシンのスペックなど 「gpt-oss-120b」でのローカルLLM
大きめなサイズのモデルを試してみた話 生成AI系のライブラリ・SDK とローカルLLM JavaScript版の AIエージェントSDK などが絡む話を少し紹介 まとめ 現状の自分の感想など
内容に関する補足 ・個人で試してみた事例の話です ⇒ ビジネス系・業務での活用・という 要素は入ってないです ・生成AI・AIエージェントまわりの詳しい話 には踏み込んでいないです ⇒ ローカルLLM
まわりの概要の話です
ミニPC「GMKtec EVO-X2」 Ryzen AI Max+ 395搭載 今日の話題の1つ目(ハードウェア関連) 10月中旬、ローカルLLM用の強大な力(マシン)を入手 M4 Mac
mini、 M4 MacBook Air New! 2025年10月以前 大きめなモデルも 扱えるように
ローカルLLMを動作させるために ⇒ モデルのパラメータ(重み) などを展開するメモリが必要 ※ EVO-X2だと他の2台より大きなサイズを確保できる
デフォルト設定でモデル用に使えるメモリのサイズ ※ ある特定の実行環境での概算 (VRAMにモデルをのせる、という前提での話) M4 Mac mini(24GB) ⇒ 16GB EVO-X2(128GB)
⇒ 64GB ※ 96GB 等に増やす ことも可能 M4 MacBook Air(16GB) ⇒ 8GB
試したかったモデル:OpenAIの「gpt-oss-120b」 ある実行環境(LM Studio)でのモデル サイズ表記 「65GB」 96GB の割り当てなら余裕でモデルをのせられる
OpenAIの記事より:「gpt-oss-120b」の性能 あるベンチマーク で o4-mini と同等
購入理由と価格(全て何らかのセールで購入) M4 Mac mini(24GB) ローカルLLM + Mac mini を 試してみたかった
M4 MacBook Air(16GB) Intel版 MacBook Pro を買い替え ようかと思ってた時にセール EVO-X2(128GB) ローカルLLMで大きめのモデルを 動かしてみたくなった 14.9万円(2024/10) 約29万円(2025/10) 16.5万円(2025/7)
ローカルLLM関連で話題に出てくるPC(の一部) EVO-X2 よりも価格は高い(性能の違いなどがあったりはするけれど) (EVO-X2 も高いけど)このあたりよりは 個人的には手を出しやすかった
「EVO-X2」+「gpt-oss-120b」 を使ったローカルLLM
動画: Node.jsで実装したクライアントでの処理 EVO-X2をローカルサーバーとしてAPI経由で処理を実行 わりと良い感じの速度で 整った長文が出力された
生成AI/ローカルLLMとJavaScript ・生成AI を JavaScript で扱う場合の例 ⇒ 例えば、OpenAI/Gemini/Claude など の
API を利用(REST API で扱う) ⇒ API用のライブラリ、AIエージェントSDK などの JavaScript版を使ったり ・ローカルLLM + JavaScript ⇒ 上記と同じような感じで扱うことも可能
JavaScriptでローカルLLM:シンプルな処理の例 baseURL でローカル サーバーを指定 APIキーやモデルは 空/適当な文字列 ← 基本的には Node.js で
openai のパッケージを 使ったコードの、 接続先を変えるだけ
ローカルLLMでよく出てくる実行環境 ・LM Studio や Ollama などが代表的なものとして よく出てくる(※ 他にもあります) ・GUI上で処理を試すこともでき、ローカルの APIサーバーをたてられる
⇒ OpenAI互換の API だったり、それとは別に 独自の REST API があったりもする
AIエージェントSDK(JavaScript版)も OpenAI対応のものを使える 例えば
シンプルな実装であれば 非常に短いコードでサクッと
「OpenAI Agents SDK」でのシンプルな実装例
Vercelの「AI SDK」でのシンプルな実装例
ちょっとしたお試しの記事はQiitaに
ローカルLLMをがっつり使っているか? ・自分の用途だと ChatGPT・Gemini・Claude を 使ってしまえば良い、という状況が多いかも ・ビジネス用途だと、外部の API に出せないデータの 処理がよくある活用事例の 1つ
・やりたいこととして、モノづくり系の体験型展示での 活用がある(ネット環境・コストを気にせず利用)
EVO-X2(や Mac mini等)を買って良かったか? ・ローカルLLM に関する知識を得たい、という強い 動機になって良かった ⇒ 以前も情報は追いかけていたものの、自分が 使える状態になってからは、具体的なモデルの
情報や実行環境の詳細の情報も見るようになった その分、30万円近い PC を買うことに なったというのはあるけれどw
終わり!