Upgrade to Pro — share decks privately, control downloads, hide ads and more …

規制対象のワークロードでセキュアにGenAI を活用する際のハシゴの紹介

Avatar for heiyo heiyo
July 21, 2024
150

規制対象のワークロードでセキュアにGenAI を活用する際のハシゴの紹介

2024/07/22
「JAWS-UG東京 ランチタイムLT会 #13 アニバーサリー企画!」の登壇資料。
https://jawsug.connpass.com/event/321447/

Avatar for heiyo

heiyo

July 21, 2024
Tweet

Transcript

  1. はじめに(2/2) LTを通して学べること スモールスタート&セキュアにGenAIを利活用するためのナレッジ。 1. 抽象:GenAIをセキュアに利活用する際に有用なリファレンス、フレームワークなどの知見(=ハシゴ) 2. 具体:米国陸軍におけるAI戦略の策定方法の事例@AWS Summit Washington, DC

    現状 要求 水準 ▪ハシゴ 本LTでは要求水準を満たすために有用なリファレンス、フレームワーク、ナレッジ全般をハシゴと呼ぶ。 ※あくまで1つのプラクティスであるため、目の前のApp の特徴や組織にあわせて利用しましょう。ハシゴに使われないこと。 ▪要求水準 公共/金融分野など業界の規制を満たす必要がある領域では セキュリティをはじめとした各種非機能要件に一定水準以上の要求事項が求められる。 例:政府統一基準(公共)、PCI DSS(金融)など
  2. 自己紹介:西川 洋平(にしかわ ようへい) @heiyoo47 • 出身 富山県(学生時代は札幌に6年、東京4年目) • AWS 歴

    1年半(クラウドは4年目) • 興味/関心 公共分野のクラウド動向 #ガバクラ #標準化 #GenAI • その他 2024 Japan AWS Jr. Champions に選出。 AWS Summit Washington, DC に参加。 AWSの代表的な公共分野のイベント。
  3. 1. 規制対象のワークロードにおいてGenAIを導入する際のロードマップ 1. Experiment(実験) • 新しいイノベーションの活用 • ガードレールの導入 • トラストレイヤーの導入

    2. Scale(スケール) • 人材育成 • クラウド活用 3. Mission Production(ミッション達成) • 効果測定 • ベストプラクティスの獲得 • サイクルを迅速に回す ガードレールを活用しつつ、まず触ってみましょう。 AWS:Guardrails for Amazon Bedrock(具体)、発見的/予防的統制(抽象) ハシゴを紹介する前に・・・ 引用元:Generative AI for regulated government workloads@AWS Summit Washington, DC 2024 参考元:Amazon Bedrock のガードレール https://aws.amazon.com/jp/bedrock/guardrails/
  4. 2. 一般論:OWASP Top 10 for LLM Applications(1/2) 引用元:生成AI のセキュリティ対策と責任あるAI の実現@AWS

    Summit Japan2024 参考元:OWASP Top 10 for Large Language Model Applications https://owasp.org/www-project-top-10-for-large-language-model-applications/ LLM Appに特化した10の脆弱性に対して具体的な脅威と緩和戦略が整理
  5. 2. AWS:Generative AI Security Scoping Matrix (2/2) 各スコープに対して、下記のセキュリティ領域の要件を評価できる。 • ガバナンスとコンプライアンス

    リスクを最小限に抑えながらビジネスを強化するために必要なポリシー、手 順など。 • 法律とプライバシー GenAI サービスを使用/作成するための特定の規制、法律、およびプラ イバシー要件。 • リスク管理 GenAIサービスに対する潜在的な脅威と推奨される緩和策の特定。 • コントロール リスクを軽減するために使用されるセキュリティコントロールの実装。 • レジリエンス 可用性を維持しビジネスの SLA を満たす生成 AI ソリューションを設計 する方法。 利用するGenAI サービスに応じて考慮すべき主要なセキュリティ要件をまとめたマトリクス 参考元:生成 AI をセキュアにする 生成 AI セキュリティスコーピングマトリックスの紹介 https://aws.amazon.com/jp/blogs/news/securing-generative-ai-an-introduction-to-the-generative-ai- security-scoping-matrix/
  6. 2. 事例紹介:米国陸軍におけるAI戦略の策定方法 米国陸軍では安全かつ迅速にGenAIを利活用するために、AI Layered Defense Frameworkを導入している。 例)システムごとのリスク分類 • 高リスク:戦術、武器関連システム •

    中リスク:外部システム(会計、人事管理など) • 低リスク:内部システム(国防総省ユーザ向けのシステムなど) ▪AI Layered Defense Frameworkの詳細 機密性の高いシステムは十分に安全であると判断されるまで に通過しなければならない制御層が増え、低リスクなシステム には柔軟性を持たせている。 リスクは以下5つのAI要素領域に対して管理する。 1. Data:データ 2. Models:モデル 3. Model Outputs:モデル出力 4. Infrastructure&Code:インフラとコード 5. Human Factors:人的要因 ※概要レベルのみ公開情報となっていた。 引用元:DefendAI: Army wants industry help with safety testing for artificial intelligence https://breakingdefense.com/2024/05/defendai-army-wants-industry-help-with-safety-testing-for-artificial- intelligence/