Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
実践AIガバナンス
Search
Asei Sugiyama
August 29, 2025
Technology
2
51
実践AIガバナンス
Jagu'e'r 協賛 AIガバナンス導入最前線 2025 の登壇資料です
https://women-ml.connpass.com/event/345960/
Asei Sugiyama
August 29, 2025
Tweet
Share
More Decks by Asei Sugiyama
See All by Asei Sugiyama
Eval-Centric AI: Agent 開発におけるベストプラクティスの探求
asei
1
160
AI工学特論: MLOps・継続的評価
asei
11
2.6k
生成AIを用いるサービス開発の原則
asei
1
62
基調講演: 生成AIを活用したアプリケーションの開発手法とは?
asei
2
510
Eval-Centric AI: GenAI における継続的改善の実現
asei
2
170
AI の活用における課題と現状、今後の期待
asei
4
750
MLOps の現場から
asei
10
1.2k
LLMOps: Eval-Centric を前提としたMLOps
asei
8
1k
The Rise of LLMOps
asei
14
3.3k
Other Decks in Technology
See All in Technology
mruby(PicoRuby)で ファミコン音楽を奏でる
kishima
1
210
あなたの知らない OneDrive
murachiakira
0
230
実践アプリケーション設計 ②トランザクションスクリプトへの対応
recruitengineers
PRO
2
130
kintone開発チームの紹介
cybozuinsideout
PRO
0
73k
ZOZOTOWNフロントエンドにおけるディレクトリの分割戦略
zozotech
PRO
16
5.2k
Browser
recruitengineers
PRO
3
250
Preferred Networks (PFN) とLLM Post-Training チームの紹介 / 第4回 関東Kaggler会 スポンサーセッション
pfn
PRO
1
170
.NET開発者のためのAzureの概要
tomokusaba
0
230
R-SCoRe: Revisiting Scene Coordinate Regression for Robust Large-Scale Visual Localization
takmin
0
430
広島発!スタートアップ開発の裏側
tsankyo
0
240
Goss: New Production-Ready Go Binding for Faiss #coefl_go_jp
bengo4com
0
1.1k
新卒(ほぼ)専業Kagglerという選択肢
nocchi1
1
2.1k
Featured
See All Featured
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
110
20k
Making the Leap to Tech Lead
cromwellryan
134
9.5k
BBQ
matthewcrist
89
9.8k
[RailsConf 2023] Rails as a piece of cake
palkan
56
5.8k
Designing for Performance
lara
610
69k
Principles of Awesome APIs and How to Build Them.
keavy
126
17k
Git: the NoSQL Database
bkeepers
PRO
431
65k
The Language of Interfaces
destraynor
160
25k
Rebuilding a faster, lazier Slack
samanthasiow
83
9.1k
Imperfection Machines: The Place of Print at Facebook
scottboms
268
13k
Stop Working from a Prison Cell
hatefulcrawdad
271
21k
Building Adaptive Systems
keathley
43
2.7k
Transcript
実践AIガバナンス Asei Sugiyama
自己紹介 杉山 阿聖 (@K_Ryuichirou) Software Engineer @ Citadel AI Google
Developer Expert @ Cloud AI MLSE GenAIOps WG 機械学習図鑑 共著 事例でわかる MLOps 共著
主旨 各社の取り組みを具体的な事例として、AI ガバナンスとは AI の利 活用を組織的に推進することだと再定義する
TOC 出版物・ガイドラインにおける AI ガバナンス <- AI ガバナンスにおける典型的な方法論と課題 実践 AI ガバナンス
出版物・ガイドラインにおける AI ガバナンス AI ガバナンスとは 代表的なガイドライン・出版物における AI ガバナンス AI 事業者ガイドライン
AI セーフティに関する評価観点ガイド 書籍「AIガバナンス入門 リスクマネジメントから社会設計 まで」 「AI ガバナンス」は「AI ガバナンス」なのか
AI ガバナンス リスク管理 + 提供価値の最大化 アジャイルガバナンス: 組織として 学習し続けることを求める リスクマネジメントに関するISO 標準
(ISO 31000:2018) でもアジャ イルの考え方を取り入れている AI事業者ガイドライン(METI/経済産業省) https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html
AI 事業者ガイドライン AI の利活用によって生じるリスクをステークホルダーにとって受 容可能な水準で管理しつつ、そこからもたらされる正のインパク ト(便益)を最大化することを目的とする、ステークホルダーに よる技術的、組織的、及び社会的システムの設計並びに運用。 AI事業者ガイドライン(METI/経済産業省)https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html
AI セーフティに関する評価観点ガイド 「AI 事業者ガイドラインからの引用」にとどまる AI の利活用に潜むリスクをステークホルダーにとって受容可能な 水準で管理しつつ、そこからもたらされる正のインパクト(便益) を最大化することを目的とする、ステークホルダーによる技術的、 組織的、及び社会的システムの設計並びに運用。 AIセーフティに関する評価観点ガイド(第1.10版)の公開
- AISI Japan https://aisi.go.jp/output/output_information/250328_1/
書籍「AIガバナンス入門 リスクマネジメントから社 会設計まで」 どのような社会を設計す べきか、法制度や規制の 内容に触れながら議論 ガバナンスのあり方につ いてもアジャイルを前提 (右図は書籍から引用) 羽深
宏樹 著 「AIガバナンス入門 ― リスクマネジメントから社会設計ま で― 」 早川書房 2023年 https://www.hayakawa- online.co.jp/shop/g/g0000614453/
「AI ガバナンス」は「AI ガバナンス」なのか 既存の AI ガバナンスの議論は法制度・認証制度になりがち 基本的に議論しているのは AI セーフティ AI
セーフティはそれぞれのユースケースでにやるべき内容が異なる AI ガバナンス: リスク管理 + 提供価値の最大化 AI セーフティに関するリスクの評価結果を確認するだけが AI ガバ ナンスではない
TOC 出版物・ガイドラインにおける AI ガバナンス AI ガバナンスにおける典型的な方法論と課題 <- 実践 AI ガバナンス
AI ガバナンスにおける典型的な方法論と課題 ガイドラインの整備 組織体制の構築 典型的な課題
ガイドラインの整備 AI の活用にあたって遵守すべき事項をまとめたドキュメントを作成 組織全体に適用する活用指針をもとに、実業務に適用するためのガ イドライン、具体的なチェックリストといった階層構造をもたせる ことが一般的 活用指針は透明性のために外部公開することも
リクルートAI活用指針 1. ユーザーの機会拡大や社会の発展 に繋がるAIの活用 2. 公平性・公正性の追求 3. プライバシー保護とセキュリティ 強化 4.
アカウンタビリティの向上 5. ステークホルダーや有識者との対 話 リクルートAI活用指針 | 株式会社リクルート https://www.recruit.co.jp/privacy/ai_policy/
インテージグループAI利活用指針 1. 安全性の重視・セキュリティの強 化 2. 公平性の確保 3. プライバシー保護・コンプライア ンス順守 4.
透明性の追求 5. 品質の追求 インテージグループAI利活用指針 | 企業情報 | インテージホールディングス https://www.intageholdings.co.jp/company/ai_policy/
組織体制の構築 AI ガバナンスを推進するための体制構築 推進するための専門チームを設けることが多い
株式会社リクルートの例 AIガバナンスの取り組み | 株式会社リクルート https://www.recruit.co.jp/privacy/ai_policy/ai_governance/
LINEヤフー株式会社の例 責任あるAIへの取組み|LINEヤフー株式会社 https://www.lycorp.co.jp/ja/sustainability/esg/social/responsible-ai/
典型的な課題 リソース不足 AI ガバナンス専門のチームが組織に1つなので忙しい AI という変化の激しい分野で全方位に目を配る必要がある ルールの周知と徹底 AI ガバナンス専門のチームはタイムリーにガイドラインを書き換え るものの、すべてのチームが見てくれるわけではない
誰もが取り組めるようになった結果、リスクを知らずに企画立案し て推進してしまうことも
TOC 出版物・ガイドラインにおける AI ガバナンス AI ガバナンスにおける典型的な方法論と課題 実践 AI ガバナンス <-
実践 AI ガバナンス NEDO AI セーフティ強化に関する研究開発プロジェクト うまくいく/うまくいかないチームの違い AI ガバナンスのミッション AI
ガバナンスの提供する機能 AI ガバナンスにおける課題
AI セーフティ強化に関する研究 開発プロジェクト Citadel AI で「企業向け実装解 説」としてベストプラクティ ス集・事例集の作成を担当 「デモは簡単にできるものの サービス化や本番化は難しい」
というテーマでヒアリング 似たような課題・対策を行っ ていることが見えてきた
うまくいく/うまくいかないチームの違い AI ガバナンスのミッション AI ガバナンスの提供する機能
AI ガバナンスのミッション どんな使い方をしても大丈夫なAIを用意して展開しようとすると失 敗する (実現できない) AI セーフティについては組織内の各チームに任せる AI ガバナンスを専門で行うチームでのみ低減できるリスクは「AI を
活用しない機会損失リスク」 うまくいっている AI ガバナンスチームのミッションは「AI の組織 的な活用」
セガでの AI ガバナンス CEDEC 2025 講演資料よ り引用 (pp.11-12) もはや AI
を使うのが当た り前で気がついたら誰も が使っているという前提 「AIを使わないことはあ りえない」 安心安全に生成AIを使おう!社内で運用中の生成AIのガバナンスをご紹介 https://cedil.cesa.or.jp/cedil_sessions/view/3147
AI ガバナンスの提供する機能 1. 統合的なAI相談窓口 2. AI 活用支援 3. 教育
1. 統合的なAI相談窓口 CEDEC 2025 講演資料よ り引用 (pp.17, p.19) AI ガバナンス担当チーム
は、組織の中でもっとも 活用事例に詳しいチーム どんな問い合わせにも答 えることで信頼を勝ち取 る 安心安全に生成AIを使おう!社内で運用中の生成AIのガバナンスをご紹介 https://cedil.cesa.or.jp/cedil_sessions/view/3147
2. AI 活用支援 AI ガバナンス担当の持つ 専門知識は、組織内の別 チームは持っていない チームトポロジーの「イ ネイブリングチーム」 短期間の密なコラボレー
ションで組織内のチーム が AI 活用できるよう支援 マシュー・スケルトン, マニュエル・パイス 著 原田 騎郎, 永瀬 美穂, 吉羽 龍太郎 訳「チームトポロジー」日本能率協会マネジメントセンター 2021年
プロンプトキッチン 「生成AIの活用スキルを 従業員に定着させるため の実践的な研修プログラ ム」 各部署に行ってニーズを 掴み、業務で活用できる プロンプトを一緒に書く セガサミーG、生成AI徹底活用の仕掛け人・石森拓郎氏に訊く 〜IT部門統合
から”攻め”への転換、感動体験を創る技術戦略〜 | データで越境者に寄り添 うメディア データのじかん https://data.wingarc.com/sega-sammy- ishimoritakuro-80385
3. 教育 AI セーフティを組織内の全チームに実施してもらう必要がある 権利侵害などのリスク感度を組織的に向上させる必要がある 全組織に対して教育プログラムを提供し、リテラシーを向上させる
LINEヤフーでの取り組み 生成AIの利用に伴うリスクを把握するため、全従業員に研修を実施 社内のAIアシスタントを使うためには必ず受講しなければならない
AI ガバナンスにおける課題 コンウェイの法則 Stevey's Google Platforms Rant
コンウェイの法則 チューニングにより「1つ のこと(ドメイン)をうまく やる」ものができる 「システムを設計する組 織は、そのコミュニケー ション構造をそっくりま ねた構造の設計を生み出 してしまう」 メルカリにおけるデータアナリティクス
AI エージェント「Socrates」と ADK 活用事例 https://speakerdeck.com/na0/merukariniokerudetaanariteikusu-ai-eziento- socrates-to-adk-huo-yong-shi-li
Stevey's Google Platforms Rant Amazon が Microservice Architecture へと移行する前の状態 システムがモノリシックな構造である場合、互いの変更がどう影響
するかわからないため、機能開発チーム間での綿密な調整が必要 再現のない調整会議 綿密な統合テスト 共通のデプロイ計画 これらがとてつもないコミュニケーションコストを生み出し、シス テム開発が硬直化
Bezos Mandate (1/2) 今後、すべてのチームはデータと機能をサービスインターフェイス を通じて公開すること。 チーム間のコミュニケーションは、これらのインターフェイスを通 じて行わなければならない。 他のいかなるプロセス間通信も許可されない。ダイレクトリンキン グ、他のチームのデータストアへの直接読み取り、共有メモリモデ ル、バックドアなど、いかなるものであっても一切禁止する。許可
される唯一の通信方法は、ネットワーク越しのサービスインターフ ェイス呼び出しのみである。
Bezos Mandate (2/2) 使用する技術は問わない。HTTP、Corba、Pub/sub、カスタムプロ トコルなど、何でもよい。ベゾスは気にしない。 すべてのサービスインターフェイスは、例外なく、当初から外部に 公開可能なように設計されなければならない。すなわち、チームは 外部の開発者にインターフェイスを公開できることを前提に計画・ 設計しなければならない。例外は認められない。 これを実行しない者は解雇される。
結果: 新たな複雑な問題が発生 エスカレーションが困難、1つの不具合が発生したとき、どの API が原因なのか突き止めることが困難で、担当チームを突き止めるの が難しい 互いのチームが DoS 攻撃者となりかねないため、スロットリング とクォータの導入が必須
デプロイ前のQAによる担保が不可能、モニタリングの強化が必須 どんなサービスがあるのか知るのが難しい、サービスリポジトリが 必要 他の人のコードをデバッグするのはほぼ無理
AI Native Company AI エージェントは「1つのこと(ドメイン)をうまくやる」 「それらを ワークフローでつなぎ合わせる」ことで構築される AI エージェントにより Microservice
Architecture が再実装される Microservice Architecture ではさまざまな課題が生じ、設計がほぼ すべてと言われる コンウェイの法則から、システムの設計と組織設計は等価 AI ガバナンスは今後、Microservice Architecture で直面した技術的 な課題に改めて直面することが予想される
まとめ AI ガバナンス: リスク管理 + 提供価値の最大化 法制度や AI のリスクに関する議論が先行しているものの、それら は
AI セーフティとして社内の各チームが取り組むべきもの AI ガバナンス専門のチームだけが低減できるリスクは「AI を活用し ない」リスク うまくいっている組織では AI ガバナンスのミッションを「AI の組 織的な活用」としている AIガバナンスチームはイネイブリングチームとして「統合的なAI相 談窓口」 「AI 活用支援」 「教育」を行うと良い