Slide 11
Slide 11 text
© 2024 IBM Corporation
シリーズ 対応サービス 概要 備考
T4 • Bare metal servers
for Classic
主な用途:VDI, Graphics Rendering ベアメタルのGPUでは
V100/P100が機械学習や深層学
習に、T4がグラフィックのワー
クロードに適している
L4 • VSI for VPC
• IKS / ROKS for VPC
主な用途:video, AI, visual computing, graphics, virtualization
グラフィック処理やトランスコーディング向けのGPU。AI推論にも利用で
き、ほぼすべてのワークロードに対応するユニバーサルGPUとして機能す
るローエンドモデル。
大規模なAI推論ではH100の需要が高まる一方で、L4は速度や性能は限定的
だが、汎用サーバーや小型サーバーにも追加可能。消費電力と設置スペー
スの削減も利点。
エンタープライズ向けでは、主に既存のLLMの微調整や推論に用いられる。
発売時期:2023年3月/GPUメモリ:24GB
〈注意〉AI推論等では小規模な
利用に向く。一定の規模を超え
る利用ではL40Sを推奨。
L40S • VSI for VPC 主な用途:生成 AI や LLM の推論とトレーニング、 3D グラフィックス、レ
ンダリング、ビデオ
ビジュアライゼーション向けGPUであるL40をベースに、AI向けの調整を
施したもの。メモリ容量、帯域幅などが必要な場合には向かない(参考)。
スペック上はA100よりもメモリが大幅に少ないように見えるが、データサ
イズを大幅に縮小するFP8を使用することで、少ないメモリで動作する。
エンタープライズ向けでは、主に既存のLLMの微調整や推論に用いられる。
〈注意〉一定の規模を超える利
用ではL4ではなくL40Sを推奨。
※このページの内容は予定であり、今後変更となる可能性があります
AI推論向けGPU