Slide 1

Slide 1 text

AIもハイブリッドにできる?! ローカルLLMとクラウドの 組み合わせの可能性! @ebi Masahiko Ebisuda

Slide 2

Slide 2 text

日本ビジネスシステムズ株式会社 胡田 昌彦(えびすだ まさひこ) Youtube https://youtube.com/@ebibibi 自己紹介 日本ビジネスシステムズ株式会社 こんな方にオススメ! ✓ 企業の情報システム部で働く方 ✓ 一般ユーザーだけど、コンピューターに興味 があって、もっと詳しくなりたい方 ✓ Windows, Azure, M365等のMicrosoft 関連技術に興味がある方 チャンネル登録よろしくお願いします!

Slide 3

Slide 3 text

生成AIの活用がどんどん進んでいる! …気もする。

Slide 4

Slide 4 text

生成AIの活用がどんどん進んでいる! …気もする。 (※相当「人による」「組織による」状況)

Slide 5

Slide 5 text

主流のクラウド型LLMは下記のようなケースも

Slide 6

Slide 6 text

主流のクラウド型LLMは下記のようなケースも ▪機密データを扱うので外部にデータ送信はNG ▪従量課金で上限が見えないので自由には使わせられない

Slide 7

Slide 7 text

主流のクラウド型LLMは下記のようなケースも ▪機密データを扱うので外部にデータ送信はNG ▪従量課金で上限が見えないので自由には使わせられない →「ローカルLLMならOK!」というケースも

Slide 8

Slide 8 text

エンジニアが個人で自由に使い放題! にもなる。

Slide 9

Slide 9 text

とはいえ色々と疑問が…。 ▪アプリケーションはローカルLLM用に作り 直しなの? ▪ローカルLLMは賢くないのでは? ▪相当高価なGPUが必要なのでは? ▪多人数が同時に使えるの? ▪簡単に動かせるの?

Slide 10

Slide 10 text

ローカルLLMについて

Slide 11

Slide 11 text

クライアント アプリケーション ローカルLLM API Inference Server(推論サーバー) LLM ランタイム モデル重み 同一プログラムから 直接呼び出すパターン GPU / CPU モデル重みロード 利用 呼び出し 推論リクエスト

Slide 12

Slide 12 text

色々パターンはありますが… いくつか例を見てもらいましょう

Slide 13

Slide 13 text

AIモデルのgithub?dockerhub? Hagging face https://huggingface.co/

Slide 14

Slide 14 text

CUIで簡単操作 Ollama https://ollama.com/

Slide 15

Slide 15 text

GUIだし多分いちばん簡単 LMStudio https://lmstudio.ai/

Slide 16

Slide 16 text

パフォーマンスの良いLLMサーバーを構築するなら vLLM https://github.com/vllm-project/vllm

Slide 17

Slide 17 text

vllm-project/production-stack: vLLM’s reference system for K8S-native cluster-wide deployment with community-driven performance optimization https://github.com/vllm-project/production-stack/tree/main vLLM Production Stack

Slide 18

Slide 18 text

複数APIを ライブラリ でコントロールするパターン

Slide 19

Slide 19 text

やろうと思ったことがほとんどなんでもできる 超高機能ライブラリ LangChain https://www.langchain.com/

Slide 20

Slide 20 text

複数のAPIを扱える ゲートウェイ を利用するパターン

Slide 21

Slide 21 text

主要なクラウドLLMを統一的に使える OpenRouter https://openrouter.ai/

Slide 22

Slide 22 text

No content

Slide 23

Slide 23 text

LLM Gateway LiteLLM https://www.litellm.ai/

Slide 24

Slide 24 text

No content

Slide 25

Slide 25 text

No content

Slide 26

Slide 26 text

組み合わせれば いろいろなパターンが

Slide 27

Slide 27 text

ユーザー アプリケーション LLM proxy ローカルLLM ローカルLLM クラウドLLM クラウドLLM ※推奨構成ではありません!やろうと思えばこういう事もできますね、という話です。 ※今回説明してませんけど、オンプレのAPIをインターネット経由でアクセスさせるような方式も組み合わせ可能です。 ※認証系のソリューションとの組み合わせもありですね。

Slide 28

Slide 28 text

今日使ったサンプルコード https://github.com/ebibibi/Demos/tree/main/20250509-HCCJP-localLLM

Slide 29

Slide 29 text

ありがとうございました!