Slide 1

Slide 1 text

AIの標準化や法規制に関する動向 Asei Sugiyama

Slide 2

Slide 2 text

自己紹介 杉山 阿聖 (@K_Ryuichirou) Software Engineer @ Citadel AI Advisor @ Money Forward Google Cloud Innovators Champion @ Cloud AI/ML MLSE 機械学習オペレーション WG 機械学習図鑑 共著

Slide 3

Slide 3 text

TOC Fairness in machine learning <- AI の標準化や法規制に関する動向:2023 年版 ISO IEC TR 24027

Slide 4

Slide 4 text

Fairness in machine learning Fairness の対象領域 人間による主観評価 自動判定による改善 COMPASS センシティブな特徴 Equalized Odds Sufficiency

Slide 5

Slide 5 text

Fairness の対象領域 規制されている領域 クレジットの与信 教育 雇用 住宅ローン 公共施設 広告やマーケティングも nips17tutorial

Slide 6

Slide 6 text

人間による主観評価 (職務履歴書を送付したとき の)コールバック率は、白人 っぽい名前のほうが黒人っ ぽい名前よりも 50% も高い 黒人の経験した差別の度合 いは過去 25 年に渡って変化 がない nips17tutorial

Slide 7

Slide 7 text

自動判定の導入 ローンにおける自動判定の 導入 マイノリティや低所得者の 承認率が 30%向上 デフォルト(債務不履行)予測 の精度が向上 nips17tutorial

Slide 8

Slide 8 text

自動判定に潜む差別 マイノリティはそもそもロ ーンを受けにくい デフォルト予測においてロ ーンが通った人だけを対象 に学習すると、マイノリテ ィのデータが少なくなって しまう Fairness-Aware Machine Learning and Data Mining p.16

Slide 9

Slide 9 text

COMPAS (1/2) 再犯予測システム 2016 年に報道機関 Propublica が COMPAS の 判断結果に人種差別がある と報道 高リスク判定が黒人に偏っ て算出されることが判明し た Fairness-Aware Machine Learning and Data Mining p.20

Slide 10

Slide 10 text

COMPAS (2/2) 調査者と製作者の意見が対立 調査者: 偽陽性と偽陰性に基づくと差 別的 製作者: 同一スコアの人は人種によら ず再犯確率は同じ 数理的にはこの 2 つを同時に満たせ ないことが知られている Fairness の定義について議論に アルゴリズムの判断はいつ差別になるのか : COMPAS 事例を参照して

Slide 11

Slide 11 text

センシティブ な特徴 (1/2) 人種 肌の色 性別 宗教 出身国 市民権 年齢 nips17tutorial

Slide 12

Slide 12 text

センシティブ な特徴 (2/2) 妊娠 結婚歴 障害の度合い 従軍経験 地理的な情報 etc. nips17tutorial

Slide 13

Slide 13 text

Equalized Odds 偽陽性/偽陰性 に着目 : 人種 : 破産予測 : 完済/破産 偽陽性/偽陰性 の確率は人種 間で等しくあ るべき Fairness-Aware Machine Learning and Data Mining p.47

Slide 14

Slide 14 text

Sufficiency precision に着 目 : 人種 : 破産予測 : 完済/破産 正しく予測で きた確率は人 種間で等しく あるべき Fairness-Aware Machine Learning and Data Mining p.49

Slide 15

Slide 15 text

TOC Fairness in machine learning AI の標準化や法規制に関する動向:2023 年版 <- ISO IEC TR 24027

Slide 16

Slide 16 text

AI の標準化や法規制に関する動向:2023 年版 標準化のレベル EU AI ACT 日本の動向 ISO 標準

Slide 17

Slide 17 text

標準化のレベル 1. 社会的なルールや原則 (2018〜) 2. 国が定めるフレームワークや社会的なガイドライン (2020〜) 3. 技術的なガイドラインと標準化 (2021〜) 4. 標準や法制度との協調と発展

Slide 18

Slide 18 text

1. 社会的なルールや原則 (2018〜) AI の開発者に何かを強いるものでは ありませんが、実践的なドキュメン トの基礎となる OECD Principles on AI 人間中心のAI社会原則 Google’s AI Principles 人間中心のAI社会原則 https://www8.cao.go.jp/cstp/aigensoku.pdf

Slide 19

Slide 19 text

2. 国が定めるフレームワークや社会的 なガイドライン (2020〜) 公的な機関によるフレームワークの 初期バージョン 米国: NIST AI RMF EU: Regulatory Framework 日本: 経済産業省 AI原則実践のための ガバナンス・ガイドライン Ver. 1.1 経済産業省 AI原則実践のためのガバナンス・ガイドライン Ver. 1.1 https://www.meti.go.jp/press/2021/01/20220125001/20220124003.html

Slide 20

Slide 20 text

3. 技術的なガイドラインと標準化 (2021〜) 国際的な団体が実世界への適用例に 基づいて推奨事項や要求事項をまと めて公表 QA4AI (AI プロダクト品質保証コン ソーシアム) 機械学習品質マネジメントガイドラ イン (AIST) ISO/IEC 規格, IEEE 規格 機械学習品質マネジメントガイドライン https://www.digiarc.aist.go.jp/publication/aiqm/guideline-rev2.html

Slide 21

Slide 21 text

4. 標準や法制度との協調と発展 (これから) 政府と産業界による実用的で普遍的なルールの明文化 NIST AI リスクマネジメントフレームワーク: v1.0 の公表 EU AI Act: 最終版の公表と施行 ISO, IEEE, etc: 十分な議論を経た上での規格のリリースと CEN (European Committee for Standardisation) や CENELEC (European Committee for Electrotechnical Standardisation) との協調

Slide 22

Slide 22 text

EU AI ACT EU の AI ACT による機械学習の 「標準」の策定 今までのボトムアップだけでは なくなり、トップダウンな動き 比較的抽象的な要求事項が述べ られている The Artificial Intelligence Acthttps://artificialintelligenceact.eu/

Slide 23

Slide 23 text

リスクベースアプローチ (1/2) ユースケースをリスクに応 じて4段階に分類 最上段は人権侵害や犯罪に 相当 (禁止) HR への応用や医療機器はハ イリスクに相当 A European Strategy for Artificial Intelligence https://www.ceps.eu/wp- content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli- 23.4.21.pdf

Slide 24

Slide 24 text

リスクベースアプローチ (2/2) ハイリスクとみなされる例 や要求事項を列挙 データの品質 ドキュメント 透明性や情報提供 ロバスト性や正確さ セキュリティ A European Strategy for Artificial Intelligence https://www.ceps.eu/wp- content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli- 23.4.21.pdf

Slide 25

Slide 25 text

日本の動向 規制に関しては EU と比較して慎重 (だった) AI を用いた特定の技術自体を義務的規制の対象とすべきではない。義務 的な規制が必要な場合でも、意図しない領域にまで規制が及ばないよう に、AIの応用分野や用途について慎重に範囲を定めるべきである。なぜ なら、技術の具体的な使われ方等(利用分野、利用目的、利用規模、利 用場面、影響を及ぼす対象が不特定か否か、事前周知が可能か否か、オ プトアウト可能か否か等)によって、社会に与える利益や損害の可能性 は異なるからである。 経済産業省 我が国のAIガバナンスの在り方 ver1.1 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/2021070901_report.html

Slide 26

Slide 26 text

ISO 標準 AI Act の文章群と比較して具体的 ISO/IEC TR 24027 (Bias in AI systems) ISO/IEC TR 4213 (Assessment of machine learning classification performance) ISO/IEC TR 24029–1 (Assessment of the robustness of neural networks)

Slide 27

Slide 27 text

TOC Fairness in machine learning AI の標準化や法規制に関する動向:2023 年版 ISO IEC TR 24027 <-

Slide 28

Slide 28 text

ISO IEC TR 24027 1. Scope 2. Normative References 3. Terms and definitions 4. Abbreviations 5. Overview of bias and fairness 6. Sources of unwanted bias in AI systems 7. Assessment of bias and fairness in AI systems 8. Treatment of unwanted bias throughout an AI system life cycle

Slide 29

Slide 29 text

1. Scope & 2. Normative References 略 3. Terms and definitions 機械学習関連の用語の整理 Bias について簡単に分類されている 自動化バイアス、認知バイアス、サンプルバイアス、データバイアス 4. Abbreviations 略

Slide 30

Slide 30 text

5. Overview of bias and fairness Bias と Fairness についての短い説明 AI システムに含まれる Bias について、履歴書のレビューシステムを例 に説明 職歴のない期間がある人を職歴の長い人よりも低く位置づけるアル ゴリズムにはバイアスがあるといえる Fairness は人や組織に影響を与える場合に生じうるとしている Fairness の複雑さを、奨学金の貸与可否判断システムを例に説明 多様性の確保のためにはさまざまな人に貸与したい 研究室には優秀である見込みがある人を呼び込みたい

Slide 31

Slide 31 text

6. Sources of unwanted bias in AI systems 不都合なバイアスが生じるメカニズムについて例示 それぞれのバイアスについてかなり詳細に記述 認知バイアス: 10 種に分類し説明 データバイアス: 10 種に分類し説明 エンジニアリングで導入されるバイアス: 6 種に分類し説明 モデルバイアス: 7 種に分類し説明

Slide 32

Slide 32 text

7. Assessment of bias and fairness in AI systems Bias や Fairness を検知するための計測方法について記述 Confusion matrix Equalized odds Equality of opportunity Demographic parity Predictive equality それ以外の計測方法についてもリファレンスを提供

Slide 33

Slide 33 text

8. Treatment of unwanted bias throughout an AI system life cycle AI システムのライフサイクルのそれぞれのフェーズにおいて、考慮すべ き内容を記述 組織的なものもあれば (ステークホルダーの特定や役割の定義、それぞ れのフェーズでの関わり方など) かなり詳細で技術的なものもある (LASSO に代表される正則化手法など) 要件定義フェーズと、テストフェーズでの実施事項についての記述が多 い デプロイ後のモニタリングについての記述は他に比べて薄い

Slide 34

Slide 34 text

感想 チームで読み合わせて認識合わせを行うのにとても適した内容 チームで読み合わせて認識合わせを行うのにとても適さないライセンス (個人に紐づく) 事前の期待よりも遥かに詳細 OSS や個別の手法に関する言及は、書いてあるからというだけで採用す るのではなく、書き方にまで気をつけて解釈すべき

Slide 35

Slide 35 text

まとめ 人や組織を評価するシステムでは Fairness の問題に気を配る必要がある Fairness の意味では属人化を排除し、データに基づく判断の方が良い が、それだけで十分というわけではなくさまざまな指標を用いての検討 が必要 機械学習については社会的な規範や法制度、標準が作られつつあり、EU AI ACT や ISO 標準はすでに世に成果が出始めている ISO 標準はかなり具体的で示唆に富むので、エンジニアが読んでも役に 立つ