本イベントでは、DeepSeek を題材に、生成 AI 基盤モデル・大規模言語モデル (LLM) のデプロイに関する実践的なガイダンスを提供します。
まず、DeepSeek-R1-Zero、DeepSeek-R1 およびその蒸留モデル (DeepSeek-R1-Distill-Qwen, DeepSeek-R1-Distill-Llama) の技術解説を行います。続いて、AWS で LLM のデプロイメントに利用可能なアクセラレータ (NVIDIA GPU, AWS Trainium/Inferentia) や、AWS サービスの選択肢 (Amazon Bedrock, Amazon SageMaker AI, Amazon EC2) を紹介します。
後半では、実際に DeepSeek-R1 の蒸留モデルを用いたハンズオン形式のワークショップを行い、コストとパフォーマンスの最適化についても取り上げます。本セッションを通じて、LLM デプロイメント戦略に役立つ知見を提供します。