Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
LiteLLMことはじめ01:
Search
Sponsored
·
SiteGround - Reliable hosting with speed, security, and support you can count on.
→
Takamasa Tsukui
January 29, 2026
Technology
7
0
Share
LiteLLMことはじめ01:
Takamasa Tsukui
January 29, 2026
More Decks by Takamasa Tsukui
See All by Takamasa Tsukui
数億imp/日 の行動ログ基盤へ Firehose動的パーティショニングを導入したお話
kkkdev
0
1.3k
DMMトラッキングの品質改善に向けての取り組み
kkkdev
0
860
DMMトラッキングの未来に向けての取り組み
kkkdev
0
230
Other Decks in Technology
See All in Technology
組織的なAI活用を阻む 最大のハードルは コンテキストデザインだった
ixbox
6
1.8k
AI前提とはどういうことか
daisuketakeda
0
180
3つのボトルネックを解消し、リリースエンジニアリングを再定義した話
nealle
0
410
AgentCore RuntimeからS3 Filesをマウントしてみる
har1101
4
410
AIがコードを書く時代の ジェネレーティブプログラミング
polidog
PRO
3
720
Bill One 開発エンジニア 紹介資料
sansan33
PRO
5
18k
ルールルルルル私的函館観光ガイド── 函館の街はイクラでも楽しめる!
nomuson
0
180
GitHub Copilotを極める会 - 開発者のための活用術
findy_eventslides
7
4.1k
プロンプトエンジニアリングを超えて:自由と統制のあいだでつくる Platform × Context Engineering
yuriemori
0
180
シン・リスコフの置換原則 〜現代風に考えるSOLIDの原則〜
jinwatanabe
0
190
ログ基盤・プラグイン・ダッシュボード、全部整えた。でも最後は人だった。
makikub
5
1.8k
AIを活用したアクセシビリティ改善フロー
degudegu2510
1
170
Featured
See All Featured
GraphQLの誤解/rethinking-graphql
sonatard
75
12k
Understanding Cognitive Biases in Performance Measurement
bluesmoon
32
2.8k
How GitHub (no longer) Works
holman
316
150k
Mozcon NYC 2025: Stop Losing SEO Traffic
samtorres
0
200
Refactoring Trust on Your Teams (GOTO; Chicago 2020)
rmw
35
3.4k
Building Applications with DynamoDB
mza
96
7k
Tell your own story through comics
letsgokoyo
1
890
The Limits of Empathy - UXLibs8
cassininazir
1
290
Keith and Marios Guide to Fast Websites
keithpitt
413
23k
Design in an AI World
tapps
0
190
Documentation Writing (for coders)
carmenintech
77
5.3k
Speed Design
sergeychernyshev
33
1.6k
Transcript
LiteLLMことはじめ01: SDKとProxyの違いを理解し、実装コストを削減する
導入: LLM APIの乱立問題 (SDK Hell) 1 現状の課題 → "SDK Hell"(SDK地獄)により開発速度が低下
▪ SDKの断片化: OpenAI, Anthropic, Vertex AIなど、プロバ イダーごとにインターフェースが異なる。 ▪ スイッチングコスト: モデルを切り替える度にコードの書 き換えが発生。 ▪ 管理の複雑化: 複数のAPIキー、エラーハンドリングの実 装が分散。
LiteLLMとは? (解決策) 2 ユニバーサルアダプター 一言で表すと: 「100以上のLLMをOpenAIフォーマットで統一して呼べるI/F」 ▪ 統一規格: 入出力はすべてOpenAI互換。 ▪
多対応: Azure, Bedrock, Vertex AI, HuggingFaceなど主要 プロバイダーを網羅。 ▪ 軽量: 依存関係が少なく、既存プロジェクトに導入しやす い。 https://www.litellm.ai/ より
主要機能 1: 統一インターフェース (SDK) 3 コードの標準化 completion()関数一つで完結。モデル名の変更だけでプロバイ ダーを切り替え可能。 ▪ OpenAI形式の引数
(messages, model) ▪ OpenAI形式のレスポンスオブジェクト ▪ 環境変数でAPIキーを管理
主要機能 2: 信頼性の向上 (Reliability) 本番運用に不可欠な「落ちない仕組み」をSDKレベルで提供。 4 Fallbacks メインモデル(例: GPT-4)がダ ウンまたはレート制限にかかった
際、自動的にバックアップ(例: GPT-3.5, Claude)へ切り替え。 Retries 一時的なネットワークエラーや APIタイムアウト時に、設定した 回数だけ自動再試行を実施。 Load Balancing 複数のAPIキーやデプロイメント 間でリクエストを分散させ、ス ループットを最大化。
主要機能 3: LiteLLM Proxy Server 5 SDKから「Gateway」へ コードへの埋め込みではなく、独立したサーバーとして立ち上 げ、全てのLLMリクエストを一元管理。 ▪
一元管理: チーム全体のLLMアクセス窓口を統一。 ▪ 認証機能: 独自のVirtual Keysを発行・管理。 ▪ 予算管理: プロジェクト/ユーザー毎の予算上限設定。
可観測性 (Observability) 6 ブラックボックス化を防ぐ LLMアプリの入出力を可視化し、コストと品質をモニタリン グ。 ▪ 簡単連携: config.yamlに追記するだけで、Langfuse, Datadog,
Slackなどへログ送信。 ▪ コスト分析: 誰が、どのモデルを、どれくらい使ったかを 追跡。 ▪ デバッグ: 失敗したリクエストの詳細ログを確認可能。
Q & A ご清聴ありがとうございました。