Slide 3
Slide 3 text
によるローカルLLM環境でのAgent構築
1.環境セットアップ(GPUStack導入含む)
Homebrew等で開発環境を整えた後、GPUStack環境を構築(インストールTipsあり!)
2.LLMモデルの準備
GGUF形式の量子化済みモデル(例:Mistral, LLaMA2など)等を取得しGPUStackで動作確認
3.プロンプトテンプレートの整備
使用モデルに合わせてChatML/Alpaca/Vicuna等のプロンプト形式を設計
4.チャットエージェントの構築
LangChainやllama-cpp-pythonを用い会話制御やRAG機能を備えたチャットエージェント構成
5.Dockerによる構成管理
再現性・配布性のためGPUStackとエージェント環境をDockerfile/DockerComposeで管理
6.UI構築
Gradio, Streamlit, FastAPI等を使って、LLMと連携するシンプルなWebチャットUIを提供
7.セキュリティ・最適化
ローカル通信限定、Metal最適化、量子化モデル選定などで安全かつ効率的な実行を確保
8.テスト&チューニング
チャット品質・応答速度・リソース使用量を評価し、推論パラメータやRetrieverの最適化