Upgrade to Pro — share decks privately, control downloads, hide ads and more …

クラウド × シリコンの Mashup - AWS チップ開発で広がる AI 基盤の選択肢

クラウド × シリコンの Mashup - AWS チップ開発で広がる AI 基盤の選択肢

2026年3月7日に開催された JAWS DAYS 2026 にて登壇の機会をいただきました。
https://jawsdays2026.jaws-ug.jp/
https://fortee.jp/jawsdays-2026/proposal/edc33865-2417-47e2-9774-19d6945fd58f

クラウドエンジニアの皆さんに、シリコンの世界へのご招待。
普段はインスタンスタイプを選ぶだけで完結するクラウド。その下で動くシリコン(半導体チップ)を知ることで、AI開発の可能性が広がります。このセッションでは、クラウドとシリコンのMashupから生まれる価値を紹介します。
前半では、AWSのチップ開発の歴史からAWS Nitro、Graviton、Trainium、Inferentiaといった自社設計チップを紹介。後半はAIにフォーカスし、CPU、GPU、ASICの違いから、TrainiumとNeuron SDKの最新アップデートをデモを交えて紹介します。
初学者からTrainium経験者まで楽しめる内容です。ハードウェアとソフトウェアの融合がもたらす新しい可能性を、一緒に探りましょう!

Avatar for Hiroshi Tokoyo

Hiroshi Tokoyo

March 07, 2026
Tweet

More Decks by Hiroshi Tokoyo

Other Decks in Technology

Transcript

  1. #jawsug #jawsdays2026 #jawsdays2026_b 名前︓常世 ⼤史 (とこよ ひろし) 所属︓Annapurna Labs (アンナプルナラボ)

    職務︓アンナプルナラボ発信技術の拡販、技術⽀援 経歴︓グローバル半導体企業でのキャリアを経て、 2013 年、アンナプルナラボに参画。国内外 チップ外販ビジネスの技術⽀援を主導 2015 年の Amazon による買収後は、 Nitro カードの開発⽀援などを経て、現在は Trainium/Inferentia に関わる技術⽀援に従事 ⾃⼰紹介
  2. #jawsug #jawsdays2026 #jawsdays2026_b • AWS を⽀えるシリコンイノベーション • AI 時代のチップ選択 •

    AWS Trainium Deep Dive • クロージング & 質疑応答 本セッションの対象者 👥 AWS シリコン(半導体チップ)に興味をお持ちの⽅全て 🚀 半導体チップ初学者から Trainium 経験者まで楽しめる内容を⽬指します 本⽇のアジェンダ
  3. #jawsug #jawsdays2026 #jawsdays2026_b • 2011年に設⽴ - イスラエル発ファブレスチップ設計会社 • NAS (Network

    Attached Storage) やネットワーク機器に搭載 • 2015年から AWS の⼀員に Annapurna Labs とは
  4. #jawsug #jawsdays2026 #jawsdays2026_b https://www.geekwire.com/2023/inside-the-ai-chip-race-how-a- pivotal-happy-hour-changed-amazons-strategy-in-the-cloud/ 2013年秋、シアトルのパイクプレイスマーケット にある歴史あるレストランで、AWS の James Hamilton⽒と

    Annapurna Labs 創業者の Nafea Bshara⽒が運命的な出会いを果たしました。その 直前、Hamilton⽒は AWS の独⾃チップ開発の必 要性について社内⽂書を作成していました。イン フラストラクチャの⾰新とコスト制御には、半導 体レベルでの開発が不可⽋との考えからです。 この出会いを経て、AWS は 2015年に Annapurna Labs を買収。サーバーチップ Nitro の開発を⽪切 りに、現在では AI 特化型チップ Trainium と Inferentia まで⼿掛け、クラウドインフラの技術 ⾰新を加速しています。
  5. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS を⽀えるシリコンイノベーション GRAVITON GRAVITON2 GRAVITON3 GRAVITON4 AWS Graviton • ARM コア搭載プロセッサ • クラウドネイティブなワークロードに最適化 2018 2025 GRAVITON5 INFERENTIA TRAINIUM TRAINIUM2 AWS Trainium / Inferentia • 機械学習向けアクセラレータ • 低コスト、⾼い電⼒効率、持続可能な AI 基盤を実現 2019 2025 TRAINIUM3 NITRO NITRO v2 NITRO v3 NITRO v4 NITRO v5 NITRO v6 AWS Nitro System • Amazon EC2 独⾃の仮想化基盤 • 共通処理を専⽤ハードウェアに オフロード 2013 2024
  6. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS を⽀えるシリコンイノベーション その1 re:Invent 2016 Amazon EC2 独⾃の仮想化基盤 ネットワークやストレージの仮 想化等を専⽤ハードウェアにオ フロードして、ホストと分離、 最適化されたパフォーマンスを 提供 DPU (Data Processing Unit) という⾔葉ができる前から AWSでは同様の技術を実⽤化 AWS Nitro System https://aws.amazon.com/jp/ec2/nitro/
  7. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. • AWS による買収前から技術提供 - 多様なインスタンスタイプの提供 - 最⼤限のパフォーマンスを提供 - セキュリティの向上 AWS を⽀えるシリコンイノベーション その1 AWS Nitro System https://aws.amazon.com/jp/ec2/nitro/ 10GBPS NITRO 2013 25GBPS NITRO v2 2015 200GBPS NITRO v5 2022 400GBPS NITRO v6 2024 100GBPS NITRO v4 2020 100GBPS NITRO v3 2017
  8. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS Nitro System 以前の仮想化基盤 Host system Customer instances Xen hypervisor Dom0 Management security and monitoring Local storage Amazon EBS storage Amazon VPC networking
  9. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Host system Customer instances Xen hypervisor Dom0 Management security and monitoring Local storage Amazon EBS storage Amazon VPC networking Host system Nitro Hypervisor Customer instances Nitro Card(s) PCI Express Management security and monitoring Local storage Amazon EBS storage Amazon VPC networking Nitro System 以後 Nitro System 以前
  10. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Host system Nitro Hypervisor Customer instances Nitro Card(s) PCI Express Management security and monitoring Local storage Amazon EBS storage Amazon VPC networking AWS Nitro System がもたらしたもの 多様なインスタンスタイプの提供 • 仮想化基盤がホストから独⽴することで様々 なインスタンスタイプの提供が容易に • ベアメタルタイプの提供も可能 最⼤限の性能を提供 • ベアメタルと同等性能の仮想化環境を実現 • SRD プロトコルによるネットワーク性能向上 • ストレージ性能の向上 セキュリティの向上 • 全ての通信は暗号化 • セキュアなブート環境を実現 • ホスト環境への管理アクセスを禁⽌
  11. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Scalable Reliable Datagram (SRD) によるスループット、レイテンシーの改善 EFA – Elastic Fabric Adapter • AWS が独⾃開発した 低遅延・⾼スループット のトランスポートプロトコル • 複数のネットワーク経路を活⽤するマルチパスルーティング • 独⾃の link/switch ダウン検出、輻輳制御による遅延・ジッターの低減 • 分散学習などでクラスタのスケーラビリティを向上 インスタンス EFA https://ieeexplore.ieee.org/document/9167399 インスタンス EFA
  12. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS を⽀えるシリコンイノベーション その2 AWS Graviton https://aws.amazon.com/jp/ec2/graviton/ re:Invent 2018 re:Invent 2019 • A1 インスタンス(16 コア) • Arm エコシステムの発展に貢献 • サーバ Neoverse N1 コアを採⽤(64 コア) • ⽤途に応じた様々なインスタンスタイプを提供
  13. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS を⽀えるシリコンイノベーション その2 Graviton 初代 Graviton プロセッサ 16 コア 16nm プロセス 50億トランジスタ Graviton2 Neoverse-N1 64 コア 7nm プロセス 300億トランジスタ Graviton3 Neoverse-V1 64 コア チップレットベース 550億トランジスタ Graviton5 Neoverse-V3 192 コア 3nm プロセス 1720億トランジスタ AWS Graviton Graviton4 Neoverse-V2 96 コア Dual Socket 対応 730億トランジスタ 2025 2018 2023 2021 2019 https://aws.amazon.com/jp/ec2/graviton/
  14. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS を⽀えるシリコンイノベーション その2 Graviton3 Neoverse-V1 64 コア チップレットベース 550億トランジスタ AWS Graviton 2021 https://aws.amazon.com/jp/ec2/graviton/ Graviton5 Neoverse-V3 192 コア 3nm プロセス 1720億トランジスタ Graviton4 Neoverse-V2 96 コア Dual Socket 対応 730億トランジスタ 2025 2023 Graviton3 と⽐較して • 最⼤ 30% 性能向上 • 50% コア数増加 • 2倍の L2 キャッシュ容量 (コアあたり 2MB) • メモリ帯域幅が 75% 向上 Graviton2 と⽐較して • 最⼤ 25% 性能向上 • 2倍の浮動⼩数点演算性能 • DDR5 メモリ採⽤ • メモリ帯域幅が 50% 向上
  15. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS を⽀えるシリコンイノベーション その2 AWS Graviton https://aws.amazon.com/jp/ec2/graviton/ Graviton5 Neoverse-V3 192 コア 3nm プロセス 1720億トランジスタ Graviton4 Neoverse-V2 96 コア Dual Socket 対応 730億トランジスタ 2025 2023 Graviton4 と⽐較して • 最⼤ 25% 性能向上 • 2倍のコア数 • シングルソケットで 192 コアを実現 • NUMA レイテンシを 33% 削減 • 5倍の L3 キャッシュ容量(192MB) 現在 M9g インスタンスがプレビューで提供中 Nitro Isolation Engine で数学的に証明された分離 セキュリティに対応 詳細は… coming soon
  16. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 柔軟な Graviton 搭載サーバ構成を実現 Graviton4 搭載サーバ構成 • Nitro Card による柔軟な構成が可能 - 独⽴した2つの仮想インスタンス - 1つのコヒーレントな仮想インスタンス - 独⽴した 2つのベアメタルインスタンス - 1つのコヒーレントなベアメタルインス タンス Graviton3 搭載サーバ構成 • チップ・パッケージ・マザーボード のデザインを最適化し、1 サーバあた り 3 ソケット構成が可能に • Nitro Card が 3 ソケット構成に対応
  17. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Graviton が実現する省エネルギー 同等処理で最⼤ 60% の消費電⼒削減
  18. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Amazon Prime Day での Graviton 活⽤ 2024年 • 5,800 以上の異なる Amazon.com サービスを⽀え るため、25万個以上の AWS Graviton チップを活⽤ 2023年 • Graviton インスタンスにより、2,600 以上のサー ビスを実現。その数は 2022年の 2.7倍に 2022年 • Graviton2 の採⽤拡⼤により効率性が向上。全体の サーバー規模は 2021年のサイバーマンデー⽐で 7%増加のみ 2021年 • 12の主要⼩売サービスにおいて、3 リージョンのク ラスターで 53,000 以上の Graviton2 ベースの C6g インスタンスを展開
  19. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS を⽀えるシリコンイノベーション その3 https://aws.amazon.com/jp/machine-learning/inferentia/ https://aws.amazon.com/jp/machine-learning/trainium/ AWS Trainium / Inferentia 推論専⽤アクセラレータ としてリリース Amazon Alexa 等で活⽤ ⼤規模⾔語モデルの分散 学習、分散推論環境を低 価格で実現 Inferentia と⽐較し 5倍 のトランジスタ、HBM メモリ搭載 Trainium と⽐較して、 4倍の性能、3倍のメ モリ容量、2倍の電⼒ 効率を実現 初の 3nmプロセス採⽤ 1.5倍のメモリ容量、 1.7倍の帯域幅 MXFP8 および MXFP4 データタイプに対応 2025 2023 2021 2019 Inferentia Trainium Inferentia2 Trainium2 Trainium3
  20. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS を⽀えるシリコンイノベーション その3 https://aws.amazon.com/jp/machine-learning/inferentia/ https://aws.amazon.com/jp/machine-learning/trainium/ AWS Trainium / Inferentia 推論専⽤アクセラレータ としてリリース Amazon Alexa 等で活⽤ ⼤規模⾔語モデルの分散 学習、分散推論環境を低 価格で実現 Inferentia と⽐較し 5倍 のトランジスタ、HBM メモリ搭載 Trainium と⽐較して、 4倍の性能、3倍のメ モリ容量、2倍の電⼒ 効率を実現 初の 3nmプロセス採⽤ 1.5倍のメモリ容量、 1.7倍の帯域幅 MXFP8 および MXFP4 データタイプに対応 2025 2023 2021 2019 Inferentia Trainium Inferentia2 Trainium2 Trainium3
  21. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS 独⾃の AI アクセラレータが Amazon の AI イノベーションを推進 AI ショッピングアシスタント Rufus Alexa 対話型 AI Amazon Search 検索エンジン
  22. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. なぜ独⾃シリコンへの投資を続けているのか︖ AWS Graviton の実績 • 過去 3 年間で新規コンピューティングリソースの 50% 以上が Graviton 搭載 • 最⼤ 40% 優れた価格性能(同等の EC2 インスタンスと⽐較) • 最⼤ 60% の消費電⼒削減(同等の EC2 インスタンスと⽐較) • 性能、コスト、電⼒効率を最適化 • 仕様策定から導⼊までのスピード向上 • 市場のニーズに迅速かつ柔軟に対応 • さらなるイノベーションが可能に • 複数の選択肢を持つことで可⽤性を向上 https://youtu.be/YKRFVA6g9j0
  23. #jawsug #jawsdays2026 #jawsdays2026_b AI を実現するために求められるチップとは︖ • Transformers / CNN ↓

    • 多量のニューラルネットワーク層 ↓ • ⾏列演算(matmul)+ 活性化関数 ↓ • 積和演算(MAC) いかに効率よく⾏列演算(積和演算)を実⾏できるか Transformers CNN ニューラルネットワーク
  24. #jawsug #jawsdays2026 #jawsdays2026_b • 10〜100のプロセッシング コア • 事前定義された命令セット とデータパス幅 •

    汎⽤コンピューティング向 けに最適化 CPU CPU、GPU、FPGA、ASIC の特徴 • 数千のプロセッシングコア • 事前定義された命令セット とデータパス幅 • 並列実⾏に効果的な設計 GPU • 数百万のプログラマブル デジタルロジックセル • 書換え可能なハードウェア • 事前定義された命令セット はなく、広帯域のデータパ スを実装可能 FPGA • 特定の⽤途/機能に最適化 されたカスタム設計 • APIを通じて公開される事 前定義されたソフトウェア エクスペリエンス ASIC Control ALU ALU Cache DRAM ALU ALU Control ALU ALU Cache DRAM ALU ALU Control ALU ALU Cache DRAM ALU ALU Control ALU ALU Cache DRAM ALU ALU DRAM DRAM DRAM
  25. #jawsug #jawsdays2026 #jawsdays2026_b 効率を⾼めるためには︖ CPU 複雑な演算 結果 GPU シンプルな演算 結果

    結果 結果 結果 結果 演算効率、電⼒効率を⾼めるシストリックアレイ シストリックアレイ シンプルな演算 並列処理 局所通信 並列処理
  26. #jawsug #jawsdays2026 #jawsdays2026_b 効率を⾼めるためには︖ ASIC GPU CPU 効率 アプリケーション 演算効率、電⼒効率を⾼める専⽤エンジン群

    Neuronコア GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine 汎⽤ SIMD エンジン カスタムオペレータに対応 オンチップメモリ 各エンジンに⾼速 データ転送 Tensor エンジン ⾏列演算に最適化 Scalar エンジン RELU 等の活性化関 数に最適化 Vector エンジン プーリング、正規化 処理に最適化
  27. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 世界最⼤規模の AI コンピュート クラスタ 2025年、100万個を超えるチップを導⼊ PROJECT RAINIER https://www.aboutamazon.com/news/aws/aws-project- rainier-ai-trainium-chips-compute-cluster
  28. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 34 記録的なペースで Trainium2 を展開 3x AWS 生成 AI キャパシティ 4x より速いキャパシティの拡⼤ 時間 Amazon EC2 Trn2 これまでの AWS AI 向けインスタンス より多くのキャパシティ
  29. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Anthropic Sonnet 4.5 (reasoning) 35 Trn2 は Sonnet 4.5 で最も⾼い OTPS を提供 Trn2 は Sonnet 4.5 で 平均的に⾼い OTPS (出⼒トークン毎秒)を 実現 Based on Artificial Analysis public benchmarks 0 10 20 30 40 50 60 70 80 90 100 Vision / single image Medium / coding 100 input tokens 1k input tokens 10k input tokens 100k input tokens Sonnet 4.5 (reasoning) OTPS Other Hyperscaler Amazon
  30. OpenAI to consume 2 gigawa's of Trainium capacity through AWS

    infrastructure https://www.aboutamazon.com/news/aws/amazon-open-ai-strategic-partnership-investment February 27, 2026
  31. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS が⾃社開発した第 3 世代の⽣成 AI / ML アクセラレータ AWS Trainium2 2024 年⼀般提供開始 HBM 容量 HBM 帯域幅 Dense / Sparse compute Trn2 : Trainium2 搭載インスタンス • 最大 16 個の Trainium2 を搭載 (Trn2.48xlarge) • 同等のインスタンスと⽐較し 30%-40% ⾼いコスト性 能を実現 • 最⼤ 1.5 TB の⾼速 HBM3 メモリ搭載 • 3,200 Gbps のネットワーク帯域に対応 • Anthropic社 Claude モデルは Trainium2 上にデプロイ
  32. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS Trainium2 https://aws.amazon.com/machine-learning/trainium/ HBM HBM NeuronLink-v3 DMA DMA DMA DMA DMA DMA DMA Collective Communication Host PCIe NeuronLink-v3 Trainium2 NeuronLink-v3 NeuronLink-v3 HBM HBM NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine Neuronコア v3 NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine Neuronコア v3 NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine Neuronコア v3 第 3 世代 Neuronコア v3 § 8 つの Neuronコア (4 つの 論理 Neuronコア) § インスタンスあたり 最⼤ 128 Neuronコア (64 論理 Neuronコア) § Sparsity 対応 (最⼤ 4 倍の FLOPS 値) 96 GB HBM メモリスタック § Trainium と⽐較し 3 倍の容量、4 倍の帯域幅 NeuronLink-v3 § より⾼帯域、低遅延なデバイス間接続 専⽤ Collective Compute エンジン § 分散学習、推論を⾏う際に、演算と集団通信を オーバーラップ
  33. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS Trainium2 2D Torus トポロジー (trn2.48xlarge) Trainium2 NeuronLink-v3 § ⾼帯域、低遅延なデバイス間接続 HBM HBM NeuronLink-v3 DMA DMA DMA DMA DMA DMA DMA Collective Communication Host PCIe NeuronLink-v3 Trainium2 NeuronLink-v3 NeuronLink-v3 HBM HBM NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine NeuronCore-v3 GPSIMD Engine On-chip SRAM memory Tensor Engine Vector Engine Scalar Engine
  34. #jawsug #jawsdays2026 #jawsdays2026_b Amazon EC2 Capacity Blocks for ML で提供中

    • 必要なキャパシティを将来の⽇付で⼀定期間、低コストで確保するための 仕組み Trn2 インスタンスをお試し下さい 🚀 Trainium2 HBM3 EFA 帯域 CB 価格 対応リージョン Trn2.3xlarge 1 96 GB - $2.235 MEL (ap-southeast-4) GRU (sa-east-1) Trn2.48xlarge 16 1.5 TB 3,200 Gbps $35.76 CMH (us-east-2) ※ 2026 年 2 ⽉時点の価格 - 需要と供給の傾向に基づいて定期的に更新 https://aws.amazon.com/jp/ec2/capacityblocks/ 🔰 初期 PoC に最適 Spot にも対応 !
  35. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS 次世代のエージェント型 AI、推論、 動画⽣成アプリケーションに最⾼の トークンエコノミクスを実現する 第 4 世代 AI チップ HBM3E Capacity HBM3E Bandwidth MXFP8 Compute 2025 年⼀般提供開始
  36. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. MXFP8 COMPUTE HBM3E CAPACITY HBM3E BANDWIDTH NeuronSwitch Bandwidth Trn3 UltraServers 4.4 倍 の計算能⼒ | 3.9 倍 のメモリ帯域幅 (Trn2 UltraServers と⽐較)
  37. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 4.4 倍 の計算能⼒ | 3.9 倍 のメモリ帯域幅 (Trn2 UltraServers と⽐較) NeuronSwitch • スイッチドファブリック(PCIe からUALink128/224 へ進化) • より⼤規模なスケールアップドメイン(最⼤ 144 チップ) • 2 TB/s の NeuronLink 帯域幅 • AllGather のレイテンシを最⼤ 6 倍削減 • AllReduce のレイテンシを最⼤ 2 倍削減 Trn3 UltraServers
  38. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS のハードウェアイノベーション モジュール式で堅牢な設計 トップから交換可能 オートメーション対応
  39. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS のハードウェアイノベーション Trainium3 モジュール式で堅牢な設計 トップから交換可能 オートメーション対応
  40. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS のハードウェアイノベーション Nitro モジュール式で堅牢な設計 トップから交換可能 オートメーション対応
  41. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. AWS のハードウェアイノベーション Graviton モジュール式で堅牢な設計 トップから交換可能 オートメーション対応
  42. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 50 NxD (NeuronX Distributed) ライブラリ
  43. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. カラクリ社での Trainium 活⽤事例 2023年 • 「AWS LLM 開発⽀援プログラム」を成功裏に完了した 15 社中 12 社が AWS Trainium を活⽤ • カラクリ社では、当時の Neuron SDK で未実装だった GQA (Grouped Query Attention) を独⾃実装し、 Llama2 70B をベースとしたモデルを開発 2024年 • Mixtral 8x7B MoE、Qwen2.5-VL にいち早く独⾃対応 しモデルを開発、Hugging Face Hub 上で公開中 2025年 • Trainium2 を活⽤し、次世代モデルを開発 Trainium を使⽤し続ける中で蓄積してきた ノウハウを「AWS Trainium 50本ノック」 という形で実践形式にまとめ、公開中 https://zenn.dev/karakuri_blog/articles/ 77d93c40b27b60
  44. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Native PyTorch • PrivateUse1 デバイスバックエンド 経由の統合 • オープンソース実装 • 簡単なデバイス切り替え 典型的な GPU 向け PyTorch コード デバイス名を neuron にアップデート TorchNeuron NEW !! Beta 版を提供中
  45. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. torch.accelerator を使⽤するモダンなアプ ローチは、Neuron 上でそのまま動作可能 • PrivateUse1 デバイスバックエンド 経由の統合 • オープンソース実装 • 簡単なデバイス切り替え Native PyTorch TorchNeuron NEW !! Beta 版を提供中
  46. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 分散処理 API(torch.distributed) • FSDP (Fully Sharded Data Parallel) • DTensor (Distributed Tensor) • DDP (Distributed Data Parallel) torch.compile • JIT コンパイルによる性能向上 TorchTitan • PyTorchの分散学習フレームワーク • ⼤規模モデルの学習に最適化 PyTorch 標準 API の ネイティブサポート Native PyTorch TorchNeuron NEW !! Beta 版を提供中
  47. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Neuron Kernel Interface (NKI) https://awsdocs-neuron.readthedocs-hosted.com/en/latest/general/nki/ • Python に組み込まれたドメイン 固有⾔語(eDSL) • タイルレベルプログラミングの 利便性 • AWS Trainium ハードウェア命令 セットへの直接アクセスによ り、最適化された AI カーネルの 記述が可能
  48. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. • 3 つのコンポーネントで構成 Neuron Kernel Interface (NKI) 最適化済みのオープンソース カーネル PyTorch、JAX で利⽤可能 github.com/aws-neuron/nki- library で公開中 NKI カーネルを NKI IR に変換 開発者が指定した実⾏順序と メモリ割り当てを保持 MLIR ベース github.com/aws-neuron/nki で公開予定 ハードウェア命令と最適化を 完全に制御 nki.lang • ⾼レベルのタイル・プログラ ミング(NumPy/Triton ⾵) nki.isa • 命令セットへの直接アクセス NKI プログラミング インタフェース NKI ライブラリ NKI コンパイラ
  49. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Neuron Explorer • パフォーマンス最適化と デバッグのワークフロー 全体を⽀援するツール群 • Widgetベースのレイア ウトにより操作性と視認 性が向上 • Webアプリケーション、 またはVSCodeから利⽤ 可能
  50. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 2011 2012 2014 2015 ENHANCED STRORAGE 2018 2019 2020 XEN 2010 2022 2023 2024 2013 ENHANCED NETWORKING 2016 2017 AWS NITRO SYSTEM 2021 NITRO SSD イノベーションのスピードは加速 NITRO 10Gbps NITROv2 25Gbps NITROv4 100Gbps NITROv3 100Gbps NITROv5 200Gbps Graviton Graviton2 Graviton3 Inferentia Inferentia2 Trainium 2025 インスタンスタイプの数 1000+ NITROv6 400Gbps Graviton4 Trainium2 Trainium3 Graviton5
  51. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 独⾃半導体開発への投資は継続 re:Invent 2025 Keynote
  52. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. Neuron Community https://aws.amazon.com/jp/blogs/news/neuron-community-day-one/ https://aws.amazon.com/jp/blogs/news/neuron-community-vol-2/ https://discord.gg/DUx4g3Z3pq コミュニティへの参加 はこちらから
  53. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 66 まとめ - クラウド × シリコンの Mashup AWS を⽀えるシリコンイノベーション • AWS Nitro System による仮想化基盤の⾰新 • AWS Graviton によるコストパフォーマンスと電⼒効率の実現 • AWS Trainium / Inferentia による AI 基盤の新しい選択肢 今⽇からできること • Spot インスタンスで提供されている trn2.3xlarge で PoC を始めてみて下さい • Neuron Community にもぜひご参加頂き、知⾒を共有しながら⼀緒に AWS のシ リコンイノベーションを活⽤していきましょう AWS はシリコンイノベーションを通じて、クラウド コンピューティングの可能性を無限に広げていきます
  54. © 2026, Amazon Web Services, Inc. or its affiliates. All

    rights reserved. 【AWS re:Invent 2025 速報】AWS ⾃社設計 AIチップ AWS Trainium3 の全貌 h9ps://zenn.dev/aws_japan/arCcles/06808526d5c75f