Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Understanding_Thread_Tuning_for_Inference_Serve...

 Understanding_Thread_Tuning_for_Inference_Servers_of_Deep_Models.pdf

機械学習モデルによる予測をリアルタイムに提供するためには推論サーバーが不可欠です。CPUで推論を実行するときには、スレッド数の設定がシステムパフォーマンスに大きく影響します。適切な設定を行うことでスループットが数倍向上することも珍しくありません。

本セッションでは推論サーバーのスレッド数チューニングの方法について、その原理から解説します。Triton Inference Serverを例に推論サーバーがどのようにCPUスレッドを割り当てているか、またその結果としてレイテンシーとスループットのトレードオフが発生することを説明します。これらのメカニズムを理解することで、参加者の皆さんが見通しをもってスレッド数チューニングを行えるようになることが今回の講演の目標です。

More Decks by LINEヤフーTech (LY Corporation Tech)

Other Decks in Technology

Transcript

  1. # config.pbtxt platform: "onnxruntime_onnx" # Number of model instances (for

    horizontal scaling) instance_group [{ count: 1 kind: KIND_CPU } ] # Intra-op parallelism (for vertical scaling) parameters { key: "intra_op_thread_count" value: { string_value: "1" } } &YQFSJNFOU*U $POGJHVSBUJPOTGPS5SJUPO*OGFSFODF4FSWFS