Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AIの標準化や法規制に関する動向 (2023年版)

AIの標準化や法規制に関する動向 (2023年版)

第1回 Data-Centric AI勉強会 で発表した際の資料です。
https://dcai-jp.connpass.com/event/282385/

現状の動向についてより詳しく述べたブログ記事はこちらです https://blog.citadel.co.jp/overview-of-ai-standardization-2023-2e8ef5a19f82

Asei Sugiyama

June 01, 2023
Tweet

More Decks by Asei Sugiyama

Other Decks in Technology

Transcript

  1. AIの標準化や法規制に関する動向
    Asei Sugiyama

    View Slide

  2. 自己紹介
    杉山 阿聖 (@K_Ryuichirou)
    Software Engineer @ Citadel AI
    Advisor @ Money Forward
    Google Cloud Innovators Champion @
    Cloud AI/ML
    MLSE 機械学習オペレーション WG
    機械学習図鑑 共著

    View Slide

  3. TOC
    Fairness in machine learning <-
    AI の標準化や法規制に関する動向:2023 年版
    ISO IEC TR 24027

    View Slide

  4. Fairness in machine learning
    Fairness の対象領域
    人間による主観評価
    自動判定による改善
    COMPASS
    センシティブな特徴
    Equalized Odds
    Sufficiency

    View Slide

  5. Fairness の対象領域
    規制されている領域
    クレジットの与信
    教育
    雇用
    住宅ローン
    公共施設
    広告やマーケティングも
    nips17tutorial

    View Slide

  6. 人間による主観評価
    (職務履歴書を送付したとき
    の)コールバック率は、白人
    っぽい名前のほうが黒人っ
    ぽい名前よりも 50% も高い
    黒人の経験した差別の度合
    いは過去 25 年に渡って変化
    がない
    nips17tutorial

    View Slide

  7. 自動判定の導入
    ローンにおける自動判定の
    導入
    マイノリティや低所得者の
    承認率が 30%向上
    デフォルト(債務不履行)予測
    の精度が向上
    nips17tutorial

    View Slide

  8. 自動判定に潜む差別
    マイノリティはそもそもロ
    ーンを受けにくい
    デフォルト予測においてロ
    ーンが通った人だけを対象
    に学習すると、マイノリテ
    ィのデータが少なくなって
    しまう
    Fairness-Aware Machine Learning and Data Mining p.16

    View Slide

  9. COMPAS (1/2)
    再犯予測システム
    2016 年に報道機関
    Propublica が COMPAS の
    判断結果に人種差別がある
    と報道
    高リスク判定が黒人に偏っ
    て算出されることが判明し

    Fairness-Aware Machine Learning and Data Mining p.20

    View Slide

  10. COMPAS (2/2)
    調査者と製作者の意見が対立
    調査者: 偽陽性と偽陰性に基づくと差
    別的
    製作者: 同一スコアの人は人種によら
    ず再犯確率は同じ
    数理的にはこの 2 つを同時に満たせ
    ないことが知られている
    Fairness の定義について議論に
    アルゴリズムの判断はいつ差別になるのか : COMPAS 事例を参照して

    View Slide

  11. センシティブ
    な特徴 (1/2)
    人種
    肌の色
    性別
    宗教
    出身国
    市民権
    年齢
    nips17tutorial

    View Slide

  12. センシティブ
    な特徴 (2/2)
    妊娠
    結婚歴
    障害の度合い
    従軍経験
    地理的な情報
    etc.
    nips17tutorial

    View Slide

  13. Equalized Odds
    偽陽性/偽陰性
    に着目
    : 人種
    : 破産予測
    : 完済/破産
    偽陽性/偽陰性
    の確率は人種
    間で等しくあ
    るべき
    Fairness-Aware Machine Learning and Data Mining
    p.47

    View Slide

  14. Sufficiency
    precision に着

    : 人種
    : 破産予測
    : 完済/破産
    正しく予測で
    きた確率は人
    種間で等しく
    あるべき
    Fairness-Aware Machine Learning and Data Mining
    p.49

    View Slide

  15. TOC
    Fairness in machine learning
    AI の標準化や法規制に関する動向:2023 年版 <-
    ISO IEC TR 24027

    View Slide

  16. AI の標準化や法規制に関する動向:2023 年版
    標準化のレベル
    EU AI ACT
    日本の動向
    ISO 標準

    View Slide

  17. 標準化のレベル
    1. 社会的なルールや原則 (2018〜)
    2. 国が定めるフレームワークや社会的なガイドライン (2020〜)
    3. 技術的なガイドラインと標準化 (2021〜)
    4. 標準や法制度との協調と発展

    View Slide

  18. 1. 社会的なルールや原則 (2018〜)
    AI の開発者に何かを強いるものでは
    ありませんが、実践的なドキュメン
    トの基礎となる
    OECD Principles on AI
    人間中心のAI社会原則
    Google’s AI Principles
    人間中心のAI社会原則 https://www8.cao.go.jp/cstp/aigensoku.pdf

    View Slide

  19. 2. 国が定めるフレームワークや社会的
    なガイドライン (2020〜)
    公的な機関によるフレームワークの
    初期バージョン
    米国: NIST AI RMF
    EU: Regulatory Framework
    日本: 経済産業省 AI原則実践のための
    ガバナンス・ガイドライン Ver. 1.1
    経済産業省 AI原則実践のためのガバナンス・ガイドライン Ver. 1.1
    https://www.meti.go.jp/press/2021/01/20220125001/20220124003.html

    View Slide

  20. 3. 技術的なガイドラインと標準化
    (2021〜)
    国際的な団体が実世界への適用例に
    基づいて推奨事項や要求事項をまと
    めて公表
    QA4AI (AI プロダクト品質保証コン
    ソーシアム)
    機械学習品質マネジメントガイドラ
    イン (AIST)
    ISO/IEC 規格, IEEE 規格
    機械学習品質マネジメントガイドライン
    https://www.digiarc.aist.go.jp/publication/aiqm/guideline-rev2.html

    View Slide

  21. 4. 標準や法制度との協調と発展 (これから)
    政府と産業界による実用的で普遍的なルールの明文化
    NIST AI リスクマネジメントフレームワーク: v1.0 の公表
    EU AI Act: 最終版の公表と施行
    ISO, IEEE, etc: 十分な議論を経た上での規格のリリースと CEN
    (European Committee for Standardisation) や CENELEC (European
    Committee for Electrotechnical Standardisation) との協調

    View Slide

  22. EU AI ACT
    EU の AI ACT による機械学習の
    「標準」の策定
    今までのボトムアップだけでは
    なくなり、トップダウンな動き
    比較的抽象的な要求事項が述べ
    られている
    The Artificial Intelligence Acthttps://artificialintelligenceact.eu/

    View Slide

  23. リスクベースアプローチ (1/2)
    ユースケースをリスクに応
    じて4段階に分類
    最上段は人権侵害や犯罪に
    相当 (禁止)
    HR への応用や医療機器はハ
    イリスクに相当
    A European Strategy for Artificial Intelligence https://www.ceps.eu/wp-
    content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli-
    23.4.21.pdf

    View Slide

  24. リスクベースアプローチ
    (2/2)
    ハイリスクとみなされる例
    や要求事項を列挙
    データの品質
    ドキュメント
    透明性や情報提供
    ロバスト性や正確さ
    セキュリティ
    A European Strategy for Artificial Intelligence https://www.ceps.eu/wp-
    content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli-
    23.4.21.pdf

    View Slide

  25. 日本の動向
    規制に関しては EU と比較して慎重 (だった)
    AI を用いた特定の技術自体を義務的規制の対象とすべきではない。義務
    的な規制が必要な場合でも、意図しない領域にまで規制が及ばないよう
    に、AIの応用分野や用途について慎重に範囲を定めるべきである。なぜ
    なら、技術の具体的な使われ方等(利用分野、利用目的、利用規模、利
    用場面、影響を及ぼす対象が不特定か否か、事前周知が可能か否か、オ
    プトアウト可能か否か等)によって、社会に与える利益や損害の可能性
    は異なるからである。
    経済産業省 我が国のAIガバナンスの在り方 ver1.1 https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/2021070901_report.html

    View Slide

  26. ISO 標準
    AI Act の文章群と比較して具体的
    ISO/IEC TR 24027 (Bias in AI systems)
    ISO/IEC TR 4213 (Assessment of machine learning classification
    performance)
    ISO/IEC TR 24029–1 (Assessment of the robustness of neural
    networks)

    View Slide

  27. TOC
    Fairness in machine learning
    AI の標準化や法規制に関する動向:2023 年版
    ISO IEC TR 24027 <-

    View Slide

  28. ISO IEC TR 24027
    1. Scope
    2. Normative References
    3. Terms and definitions
    4. Abbreviations
    5. Overview of bias and fairness
    6. Sources of unwanted bias in AI systems
    7. Assessment of bias and fairness in AI systems
    8. Treatment of unwanted bias throughout an AI system life cycle

    View Slide

  29. 1. Scope & 2. Normative References

    3. Terms and definitions
    機械学習関連の用語の整理
    Bias について簡単に分類されている
    自動化バイアス、認知バイアス、サンプルバイアス、データバイアス
    4. Abbreviations

    View Slide

  30. 5. Overview of bias and fairness
    Bias と Fairness についての短い説明
    AI システムに含まれる Bias について、履歴書のレビューシステムを例
    に説明
    職歴のない期間がある人を職歴の長い人よりも低く位置づけるアル
    ゴリズムにはバイアスがあるといえる
    Fairness は人や組織に影響を与える場合に生じうるとしている
    Fairness の複雑さを、奨学金の貸与可否判断システムを例に説明
    多様性の確保のためにはさまざまな人に貸与したい
    研究室には優秀である見込みがある人を呼び込みたい

    View Slide

  31. 6. Sources of unwanted bias in AI systems
    不都合なバイアスが生じるメカニズムについて例示
    それぞれのバイアスについてかなり詳細に記述
    認知バイアス: 10 種に分類し説明
    データバイアス: 10 種に分類し説明
    エンジニアリングで導入されるバイアス: 6 種に分類し説明
    モデルバイアス: 7 種に分類し説明

    View Slide

  32. 7. Assessment of bias and fairness in AI systems
    Bias や Fairness を検知するための計測方法について記述
    Confusion matrix
    Equalized odds
    Equality of opportunity
    Demographic parity
    Predictive equality
    それ以外の計測方法についてもリファレンスを提供

    View Slide

  33. 8. Treatment of unwanted bias throughout an AI system
    life cycle
    AI システムのライフサイクルのそれぞれのフェーズにおいて、考慮すべ
    き内容を記述
    組織的なものもあれば (ステークホルダーの特定や役割の定義、それぞ
    れのフェーズでの関わり方など) かなり詳細で技術的なものもある
    (LASSO に代表される正則化手法など)
    要件定義フェーズと、テストフェーズでの実施事項についての記述が多

    デプロイ後のモニタリングについての記述は他に比べて薄い

    View Slide

  34. 感想
    チームで読み合わせて認識合わせを行うのにとても適した内容
    チームで読み合わせて認識合わせを行うのにとても適さないライセンス
    (個人に紐づく)
    事前の期待よりも遥かに詳細
    OSS や個別の手法に関する言及は、書いてあるからというだけで採用す
    るのではなく、書き方にまで気をつけて解釈すべき

    View Slide

  35. まとめ
    人や組織を評価するシステムでは Fairness の問題に気を配る必要がある
    Fairness の意味では属人化を排除し、データに基づく判断の方が良い
    が、それだけで十分というわけではなくさまざまな指標を用いての検討
    が必要
    機械学習については社会的な規範や法制度、標準が作られつつあり、EU
    AI ACT や ISO 標準はすでに世に成果が出始めている
    ISO 標準はかなり具体的で示唆に富むので、エンジニアが読んでも役に
    立つ

    View Slide