$30 off During Our Annual Pro Sale. View Details »

LT_TrustworthyAI_202209

Takahiro Esaki
September 08, 2022

 LT_TrustworthyAI_202209

この資料は次のイベントの投影資料です。

<イベント情報>
https://studyco.connpass.com/event/258422/

<テーマ>
信頼できるAI:Trustworthy AI入門

<概要>
AIの公平性・説明責任・透明性について耳にしたことはありますか?
昨今はAIの価値や恩恵が脚光を浴びる中、影とも言うべき社会問題が顕在化してきています。
その会問題とそれを解決するための各国政府・各企業の取り組みについて入門レベルで解説します。

Takahiro Esaki

September 08, 2022
Tweet

More Decks by Takahiro Esaki

Other Decks in Technology

Transcript

  1. - 1 -
    - 1 -
    信頼できるAI-Trustworthy AI
    AIの影を照らすための光
    2022/09/08
    Takahiro Esaki

    View Slide

  2. - 2 -
    - 2 -
    講師紹介
    【経歴】
    n東京⼤学 ⽂学部 ⼼理学専修課程 卒業
    • 専⾨︓⾼次認知(記憶・学習・⾏動 など)
    n業務/ITコンサルティング
    • 基幹システム運⽤保守業務改⾰
    • 基幹システム刷新PMO
    • サプライチェーン最適化/需要予測最適化
    • データ分析システム刷新PM/アーキテクチャ設計 など
    n新規事業開発・アジャイル開発・ローコード開発
    • クラウドソーシングプラットフォームサービス
    • アパレルプラットフォームサービス
    • 海外クリエーター向けe-Learningサービス など
    nCSM (カスタマーサクセスマネージャー) @IBM Japan※
    • AI & Cloudソリューションの活⽤促進
    • コミュニティ活動・アドボケート活動 など
    ※本講演・本資料は IBM Japan, Ltd. を代表するものではございません
    江﨑 崇浩
    (Takahiro Esaki)
    Twitter
    @t_esaking
    LinkedIn

    View Slide

  3. - 3 -
    - 3 -
    本⽇のゴール
    n ゴール
    • AIが脚光を浴びる中、顕在化している社会問題を知る
    • 上記に関するキーワードを知る・理解する
    ü 信頼できるAI
    ü 公平性
    ü 説明責任
    ü 透明性 など
    • 特に、公平性・説明責任については、
    具体的なソリューション例を確認して理解を深める

    View Slide

  4. - 4 -
    - 4 -
    AIが脚光を浴びる現代

    View Slide

  5. - 5 -
    - 5 -
    AI市場の拡⼤
    国内AIシステム市場 ⽀出額︓ 2020年〜2025年
    出所︓IDC Japan, 2021
    https://www.idc.com/getdoc.jsp?containerId=prJPJ47728821

    View Slide

  6. - 6 -
    - 6 -
    渇望されるAI⼈材
    出典︓経済産業省「AI⼈材需給に関する報告書」
    出所︓ダイアモンドオンライン
    ৽ଔͰ೥ऩສԁ΋ʂܹԽ͢Δߴ౓ਓࡐ૪ୣઓ
    https://diamond.jp/articles/-/224131
    AIの活⽤に対するニーズと期待値が⼤きくなり、脚光を浴びている状況

    View Slide

  7. - 7 -
    - 7 -
    AIの影(社会問題)

    View Slide

  8. - 8 -
    - 8 -
    AIに起因する社会問題
    n AI活⽤が進む⼀⽅、AIが予期せぬ結果をもたらす事例が社会問題となっている
    ࣄྫ
    ਓࡐ࠾༻"*͕
    ঁੑΛࠩผ
    "*ʹΑΔෆ໌ྎ
    ͳ൑அࠜڌʹΑ
    Δපؾ਍அ
    ࠶൜༧ଌγες
    Ϝͷ݁Ռʹର͢
    Δݑ๏৵֐ͷఏ

    • ֶशσʔλͷภΓ͕ɺஉঁͷੑผʹର
    ͠ɺެฏͳՁ஋൑அΛ્֐͍ͯ͠Δ
    ʢଐੑͷࠩผʣ
    • ΞϧΰϦζϜ͕ϒϥοΫϘοΫεԽ͞
    Εɺʮཧ༝ʯ͕આ໌͞Εͳ͍
    • ΞϧΰϦζϜ͕ϒϥοΫϘοΫεԽ͞
    Εɺʮཧ༝ʯ͕આ໌͞Εͳ͍
    • ࠇਓͷ࠶൜ϦεΫΛനਓͷഒʹݟੵ
    ΋͍ͬͯΔ
    • ͜ͷධՁ͸͋͘·ͰҰൠతͳՄೳੑΛ
    ༧ଌ͢Δʹ͗͢ͳ͍͜ͱ
    • σΟʔϓϖΠγΣϯτ පؾ༧ଌγεςϜ
    ͕ສͷిࢠΧϧ
    ςσʔλΛݩʹɺױऀͷൃ঱ͨ͠පؾͱ࣌ظΛ༧ଌ
    • Ұํɺʮࠜڌʯ͸ఏࣔ͞Εͳ͍··ɺ؞΍౶೘පɺ౷߹ࣦௐ
    ঱ͳͲͷॏେͳපؾ਍அʹ׆༻Ͱ͖Δͷ͔Ͱ෺ٞ
    • ͋Δࠇਓͷඃࠂਓ͕ɺ$0.1"4 ࠶൜༧ଌγεςϜ
    ʹج͍ͮ
    ͯ೥ؒͷ௄໾͓Αͼ೥ؒͷ֦େอޢ؍࡯Λݴ͍౉͞Εͨ
    • ͜Εʹର͠ɺਖ਼֬ੑ͕୲อ͞ΕͣɺݕূՄೳੑ΋ͳ͍ಉγε
    ςϜͰݑ๏͕อো͢Δదਖ਼खଓͷݖར͕৵֐͞Εͨͱఏૌ
    • "NB[POʹͯཤྺॻ͔Β"*͕࠾༻͢΂͖ਓࡐΛ൑அ͢Δγε
    ςϜͷ1+5͕தࢭ
    • "*ͷֶशʹ࢖༻ٕͨ͠ज़৬࠾༻ͷաڈσʔλ͸உੑʹภͬͯ
    ͍ͨͨΊɺཤྺॻʹʮঁʯ΍ʮঁࢠେʯͱ͍ͬͨ୯ޠ͕ग़ݱ
    ͨ͠৔߹ʹධՁΛԼ͛ͯ͠·͍ͬͯͨ
    ֓ཁ ໰୊఺

    View Slide

  9. - 9 -
    - 9 -
    各国政府の取り組み
    n AIの社会問題に対し、各国政府でAIのルールづくりが進んでいる
    欧州連合(EU) ⼀般データ保護規則(GDPR)
    ⽇本 ⼈間中⼼のAI社会原則
    アメリカ 各政府機関からの
    原則・指針・ガイドライン等
    フォーカスしてご紹介

    View Slide

  10. - 10 -
    - 10 -
    EU︓GDPRの説明
    n GDPR(General Data Protection Regulation︓⼀般データ保護規則)
    ໨త •&6಺ͷنଇ౷Ұ
    •ݸਓσʔλอޢͷڧԽ
    ੍ఆɾࢪߦ •೥݄೔੍ఆ
    •೥݄೔ࢪߦ
    نఆ಺༰ • ݸਓ͕ࣗ෼ͷݸਓσʔλΛίϯτϩʔϧ͢ΔݖརΛ୲อ͢ΔͨΊͷɺσʔλ؅ཧऀ
    ͷٛ຿ʢઆ໌੹೚ɺಉҙऔಘɺϓϥΠόγʔอޢͳͲʣΛنఆ
    ๏త߆ଋྗ
    ʲ&&"˞಺ʳ
    •Ճໍࠃͷࠃ಺๏ʹ༏ઌͯ͠ద༻͞ΕɺՃໍࠃͷ੓෎౳ʹରͯ͠௚઀తͳ๏త߆ଋྗ
    Λٴ΅͢
    ʲ&&"˞֎ʳ
    •&&"ͱऔҾͷ͋Δ͢΂ͯͷ૊৫͕ର৅
    ˠ&&"Ҭ಺ʹ͋Δࢧళͷ׆ಈΛຊళ͕ॿ͚͍ͯΔΑ͏ͳ৔߹͸ɺຊళͷ׆ಈʹ΋
    (%13͕ద༻͞ΕΔ
    ※EEA=EU27カ国とノルウェイ、リヒテンシュタイン、アイスランドを追加した30カ国のこと

    View Slide

  11. - 11 -
    - 11 -
    EU︓GDPRの22条の解説
    n GDPR 第22条 プロファイリングを含む⾃動化された個⼈意思決定
    →AIの活⽤に対する制限について規定
    第22条 プロファイリングを含む⾃動化された個⼈意思決定
    • 1. データ主体は、当該データ主体に関する法的効果をもたらすか⼜は当該 データ主体に同様の重
    ⼤な影響をもたらす、
    プロファイリングなどの⾃動化された処理のみに基づいた決定に服しない権利を持つ。
    • 2. 第1項は次に掲げるいずれかの決定には適⽤されない。
    (a) データ主体とデータ管理者間の契約締結、⼜は履⾏に必要な決定。
    (b) データ主体の権利及び⾃由並びに正当な利益を保護するための適切な措置が定められた管理者が
    従うEU 法⼜は加盟国の国内法によって認められた決定。
    (c) データ主体の明⽰的な同意に基づく決定。
    • 3. 第2項(a)号及び(c)号で定める状況に関して、データ管理者は、データ主体の権利及び⾃由並び
    に正当な利益を保護するための適切な措置を実施し、
    少なくとも管理者側で⼈を介在させる権利、当該データ主体の⾒解を表明する権利、及び決定に異議
    を唱える権利を実施するものとする。
    • 4. 第2項で定める決定は、第9条第2項(a)号⼜は(g)号が適⽤されず、データ主体の権利及び⾃由並
    びに正当な利益を保護するための適切な措置が
    機能していないならば、第9条第1項で定める特別な種類の個⼈データに基づいてはならない。

    View Slide

  12. - 12 -
    - 12 -
    EU︓GDPRの22条の解説
    n GDPR 第22条 プロファイリングなどの基づく⾃動意志の決定
    ものすごくざっくり要約すると・・・
    • 本⼈に法的効果または同様の重⼤な影響
    をもたらすような、
    • ⾃動化された意思決定・プロファイリングは
    原則禁⽌︕
    • ⼀部のケースは例外的にOKだが、
    • それでも
    本⼈の権利及び⾃由並びに正当な利益を保護す
    るための適切な措置を実施する義務がある︕
    例えば…就職活動の採⽤、お⾦の借り⼊れ判断、
    病気の診断など
    プロファイリング︓
    特定の個⼈を評価するために実施する、個⼈の各
    種情報(業務実績、経済状況、⾏動、健康など)
    の分析/予測に関連する処理全般
    →AIによる個⼈分析なども含まれる
    ⼀部のケース︓
    (a)本⼈と管理者間の契約締結、⼜は履⾏に必要なとき
    (b)本⼈の権利及び⾃由並びに正当な利益を保護するための
    適切な措置が 定められた管理者が従うEU 法⼜は加盟国の
    国内法によって認められたとき
    (c)本⼈の明⽰的な同意に基づくとき
    適切な措置︓少なくとも、下記3点は含めるべき
    ・⼈の介在を得るための⽅法
    ・⾃分の⾒解を表明するための⽅法
    ・異議を唱えるための⽅法

    View Slide

  13. - 13 -
    - 13 -
    ⽇本︓⼈間中⼼のAI社会原則
    n 内閣府にて「⼈間中⼼のAI社会原則」を整備
    • 7つの原則の中の1つとして、公平性・説明責任・透明性について規定
    参考︓
    https://www.cas.go.jp/jp/seisaku/jinkouchinou/r02_dai01/sanko2.pdf
    https://www5.cao.go.jp/keizai-shimon/kaigi/special/reform/wg7/20191101/shiryou1.pdf
    7つの原則
    の中で、
    公平性・説
    明責任・透
    明性につい
    て規定

    View Slide

  14. - 14 -
    - 14 -
    アメリカ
    n 各政府機関から原則・指針・ガイドライン等を発表
    ੓෎ػؔ ݪଇɾࢦ਑ɾΨΠυϥΠϯ 63-
    ϗϫΠτϋ΢ε &YFDVUJWF0SEFSPO1SPNPUJOHUIF6TF
    PG5SVTUXPSUIZ"SUJGJDJBM*OUFMMJHFODF JO
    UIF'FEFSBM(PWFSONFOU
    IUUQTUSVNQXIJUFIPVTFBSDIJWFTHPWQSFTJEFOUJBM
    BDUJPOTFYFDVUJWFPSEFSQSPNPUJOHVTF
    USVTUXPSUIZBSUJGJDJBMJOUFMMJHFODFGFEFSBM
    HPWFSONFOU
    ࠃཱඪ४ٕज़ݚڀॴ 'PVS1SJODJQMFTPG&YQMBJOBCMF"SUJGJDJBM
    *OUFMMJHFODF
    IUUQTXXXOJTUHPWQVCMJDBUJPOTGPVSQSJODJQMFT
    FYQMBJOBCMFBSUJGJDJBMJOUFMMJHFODF
    ࠃՈ৘ใ௕׭ࣨ 1SJODJQMFTPG"SUJGJDJBM*OUFMMJHFODF
    &UIJDT GPSUIF*OUFMMJHFODF$PNNVOJUZ
    IUUQTXXXJOUFMMJHFODFHPWQSJODJQMFTPGBSUJGJDJBM
    JOUFMMJHFODFFUIJDTGPSUIFJOUFMMJHFODFDPNNVOJUZ
    ࿈๜औҾҕһձ "JNJOHGPSUSVUI GBJSOFTT BOEFRVJUZ JO
    ZPVSDPNQBOZ`TVTFPG"*
    IUUQTXXXGUDHPWCVTJOFTT
    HVJEBODFCMPHBJNJOHUSVUIGBJSOFTT
    FRVJUZZPVSDPNQBOZTVTFBJ

    View Slide

  15. - 15 -
    - 15 -
    各国政府の取り組み
    n AIの社会問題に対し、各国政府でAIのルールづくりが進んでいる
    欧州連合(EU) ⼀般データ保護規則(GDPR)
    ⽇本 ⼈間中⼼のAI社会原則
    アメリカ 各政府機関からの
    原則・指針・ガイドライン等
    社会問題や各取り組みは主に公平性・説明責任・透明性の3軸で整理可能

    View Slide

  16. - 16 -
    - 16 -
    各企業の取り組みとソリューション

    View Slide

  17. - 17 -
    - 17 -
    信頼できるAI(Trustworthy AI)とは
    n AIを社会で運⽤するために遵守すべき3原則(FAT)
    原則
    公平性
    Fairness
    説明責任
    Accountability
    透明性
    Transparency
    • 不公平なバイアスに基づいて学習したAIモデル
    による差別
    • 性別︓⼈材採⽤AIの⼥性差別
    • ⼈種︓顔認識システムの⼈種の偏り など
    • AIにより社会的問題が発⽣した場合の責任問題
    • ⾃動運転⾞による事故
    • AIによる医療ミスへの危惧 など
    • AIのブラックボックス問題
    • 予測や判断プロセスが分からないAIは信⽤
    して使えない
    • AIによるビジネス上の問題が起きたときに
    その理由を説明できない など
    • AI設計者︓AIシステムの挙動に対して、
    誰が/何が、責任を持つのかを明らかに
    すること
    • AI利⽤者︓AIを利⽤する上で納得できる
    説明を求める権利
    • 機械学習のプロセス全体や各⼯程内の内
    容が、誰にでも明確に理解できるように
    なっていること
    • AIが不当なバイアスを社会に反映させる
    ことがないように配慮すること
    • AI設計者は不当な差別が発⽣しないよう
    に不公平なバイアスを排除しなければな
    らない
    説明 具体例

    View Slide

  18. - 18 -
    - 18 -
    信頼できるAI(Trustworthy AI)の取り組み
    n 主要ITプロバイダーの信頼できるAIに向けた取り組み
    Microsoft
    Google
    AWS
    • 顔認識および感情/性別等推測を⾏うAIサービス Azule Faceの⼀般公開⾒
    送りを決定 (2022年)
    • 説明可能なAIのためのOSSツール(InterpretMLやFairlearn等)の提供、
    Azure Machine Learningにおける機能の実装
    • Cloud Vision API から性別のラベルを削除 (2020年)
    • Explainable AIフレームワーク、What-If Tool等の説明可能なAIのための
    ツール、機能の提供
    • ⽶警察による顔認識サービスAmazon Rekognitionの使⽤の停⽌を発表
    (2020年)
    • Amazon MLサービス SageMakerで、潜在的なバイアス検出や予測の説明
    ⽀援、ドリフト監視等の機能を実装
    • AIの倫理原則の策定
    • AI原則を実装した管理プロセスの実践
    レビュー委員会による製品/取引の初期段階から
    のレビュー実施、教育、ツールの提供など
    • ⼈⼯知能と機械学習の責任ある利⽤の実践
    • 責任あるAI基準 - 6つの基本原則の策定
    • 専⾨委員会が推進してAI原則の遵守・実践
    AETHER(AI and Ethics in Engineering and
    Research)およびORA(Office of Responsible)
    取り組み 具体例
    IBM
    • Linux FoundationにOSSとして研修⽤リソース/ツールキットを提供
    • AI Fairness 360 - 公平性検証のOSSツールキットの提供、コミュニティ
    の運⽤
    • AI Explainability 360 – モデルの説明可能性をサポートするAPIの提供、
    コミュニティの運⽤ など
    • IBM Watson® OpenScale™の提供 ★本⽇デモ
    • AI Ethics Board(AI倫理委員会)組成
    • AI倫理研修リソース/OSSツールキットの提供
    • Watson OpenScaleの提供
    - 企業がAI倫理の実現を取り組める製品
    • 政府、学術機関、NPOなどとの協業

    View Slide

  19. - 19 -
    - 19 -
    IBMの取り組み︓IBM Watson® OpenScale™の解説
    n OpenScaleはMLOpsのライフサイクルでモデルが期待通りに動作しているかを監視・評価を実施
    <監視と評価の対象>
    • 公平性
    ü学習データとモデルにバイアスが潜んでいない
    か︖
    • 品質・正確性
    üモデルはライフサイクルを通して精度を維持して
    いるか︖
    • ドリフト
    ü⼊⼒データが変化していないか︖
    • 説明可能性
    ü⼊⼒をどう変更すればモデルの結果の変化につな
    がるか︖
    モデルの
    作成
    モデルの
    実⾏
    モデルの
    監視と評価
    MLOpsのライフサイクル
    OpenScaleのスコープ

    View Slide

  20. - 20 -
    - 20 -
    参考︓公平性スコアの算出
    n 公平性を定量的に評価する際に、公平性スコアが利⽤される
    監視対象グループの
    好ましい結果の割合
    公平性スコア =
    参照グループの
    好ましい結果の割合
    【例】
    ローンの審査にいおいて、⼥性に偏⾒(バイア
    ス)がないか監視・評価する場合、
    • 監視対象グループ=⼥性
    • 参照グループ=男性
    • 好ましい結果=リスクなし評価
    • (好ましくない結果=リスクあり評価)
    ⼥性の
    リスクなし評価の割合
    公平性スコア =
    男性の
    リスクなし評価の割合

    0.6
    0.8
    = 0.75
    ※⽶国の過去の判例やガイドラインでは、公平性スコアは⼀般的に0.8を上回れば公平で、差異は許容範囲内とされる
    (例)

    View Slide

  21. - 21 -
    - 21 -
    まとめ

    View Slide

  22. - 22 -
    - 22 -
    まとめ
    n ゴール
    • AIが脚光を浴びる中、顕在化している社会問題を知る
    • 上記に関するキーワードを知る・理解する
    ü 信頼できるAI
    ü 公平性
    ü 説明責任
    ü 透明性 など
    • 特に、公平性・説明責任については、
    具体的なソリューション例を確認して理解を深める
    "*ͷϒϥοΫϘοΫεͳੑ࣭ʹىҼͯ͠ɺ
    ྙཧతʹዬ ΋ͱ
    ΔΑ͏ͳࣾձ໰୊͕ݦࡏԽ͍ͯ͠Δɻ
    ্هͷࣾձ໰୊͸ɺओʹެฏੑɾઆ໌੹೚ɾಁ໌ੑͷཁૉͰ੔ཧͰ͖ɺ
    ͜ΕΒͷ໰୊Λղܾ͢Δ͜ͱͰɺ"*Λ৴པͯ͠ԸܙΛड͚Δ͜ͱ͕Ͱ͖Δɻ
    ͦͷͨΊʹɺ֤ࠃ੓෎Ͱ͸نଇ΍ΨΠυϥΠϯΛٸϐονͰ੔උ͠ɺ
    ֤اۀ΋ಠࣗͷΨΠυϥΠϯΛ੔උͯ͠ɺΞΫγϣϯΛ࣮ࢪ͍ͯ͠Δɻ
    *#.8BUTPOš0QFO4DBMFäΛྫʹ঺հɻ
    ʲެฏੑʳެฏੑείΞͰόΠΞε͕ڐ༰Ͱ͖Δ͔ఆྔతʹධՁ
    ʲઆ໌੹೚ʳେہతʹ͸Ϟσϧͷެฏੑ඼࣭υϦϑτ͕໰୊ͳ͍͔ධՁɻہॴత
    ʹ͸ͦΕͧΕͷਪ࿦ͷ݁Ռʹ͍ͭͯɺͲͷಛ௃ྔ͕ͲͷΑ͏ʹӨڹΛ༩͔͑ͨఆ
    ྔతʹՄࢹԽ

    View Slide