Upgrade to Pro — share decks privately, control downloads, hide ads and more …

【リラン】AIの光と闇?失敗しないために知っておきたいAIリスクとその対応 ①政府の動き編

【リラン】AIの光と闇?失敗しないために知っておきたいAIリスクとその対応 ①政府の動き編

次のオンラインイベントの投影資料です。

<タイトル>
【リラン】AIの光と闇?失敗しないために知っておきたいAIリスクとその対応 ①政府の動き編

<リンク>
https://ibm-developer.connpass.com/event/316670/

<概要>
近年はChatGPTを端緒として生成AIが大流行し、特にLLMや自然言語処理の領域において目覚ましい発展がありましたよね。

一方で、みなさんはAIリスク・AI倫理・AIの公平性・透明性などの単語を耳にしたことはありますか?

身の回りでAIの活用が進む一方、身近な所でさまざまな社会問題が顕在化してきております。

昨今、このようなAIの社会問題について世界中の国家・企業が将来のあり方について議論を深めており、 将来のルール作りの検討や課題を解決するためのソリューションの開発が進んでおります。

直近の大きなニュースとしては、EUのGDPRをベースとしつつ、厳しい制裁金を規定した EU AI Act (EU AI規則案) がトリコロールを経て合意され、2年間の移行期間を経て施行されることになりました。

また、2023年に開催された広島サミット(G7)でも 「広島AIプロセス」 が合意されて、各国でAI活用に向けた社会の仕組みづくりが促進されているという動きがあります。

・・・といっても、これらの情報について何となく聞いたことはあっても具体的なイメージを持っていらっしゃる方は多くないのではないかと存じます。

そこで本勉強会では、まずは現状を「知ってもらう」「興味を持ってもらう」ことを目的として、AIリスクの世間の動向とソリューションについて入門レベルでご紹介します。

なお、内容量が多いため、①政府の動き編 と ②企業の動き・ソリューション編 の2つに分けてイベントを開催する予定です。

今回は①政府の動き編として、まずAIリスク・AI倫理について日本や欧米の政府・国家の動向(特にGDPR、EU AI規則案、G7広島AIプロセスなど)を説明し、その上で、もう少しAIリスクを分かりやく理解するための整理・解説を実施します。

Takahiro Esaki

May 09, 2024
Tweet

More Decks by Takahiro Esaki

Other Decks in Technology

Transcript

  1. ʖʖ ʖʖ ߨࢣ঺հ ʲܦྺʳ nۀ຿*5ίϯαϧςΟϯά • جװγεςϜӡ༻อकۀ຿վֵ • جװγεςϜ࡮৽1.0 •

    αϓϥΠνΣʔϯ࠷దԽधཁ༧ଌ࠷దԽ • σʔλ෼ੳγεςϜ࡮৽1.ΞʔΩςΫνϟઃܭ ͳͲ n৽نࣄۀ։ൃɾΞδϟΠϧ։ൃɾϩʔίʔυ։ൃ • Ϋϥ΢υιʔγϯάϓϥοτϑΥʔϜαʔϏε • ΞύϨϧϓϥοτϑΥʔϜαʔϏε • ւ֎ΫϦΤʔλʔ޲͚F-FBSOJOHαʔϏε ͳͲ n$4. ΧελϚʔαΫηεϚωʔδϟʔ  • "*$MPVEιϦϡʔγϣϯͷ׆༻ଅਐ • ίϛϡχςΟ׆ಈɾΞυϘέʔτ׆ಈ ͳͲ ˞ຊߨԋɾຊࢿྉ͸ॴଐ૊৫Λ୅ද͢Δ΋ͷͰ͸͍͟͝·ͤΜ ˞ൃදऀ͸๏཯ͷઐ໳ՈͰ͸ͳ͘ɺݸਓతͳษڧ໨తͰௐࠪͨ͠಺༰Λڞ༗͠·͢ ߐ㟒 ਸߒ ʢ5BLBIJSP&TBLJʣ X @t_esaking LinkedIn
  2. ʖʖ ʖʖ ຊ೔ͷ໨త n ΰʔϧ • "*ͷ҆શͳ׆༻ΛਐΊͯ΋Β͏ͨΊɺ"*ϦεΫʹֶ͍ͭͯͿ ʢ·ͣ͸ɺ஌ͬͯ΋Β͏ɾڵຯΛ࣋ͬͯ΋Β͏ʣ • ࠓճ͸ʮ੓෎ͷಈ͖ฤʯͱͯ͠ɺ֤ࠃ੓෎ͷಈ޲΍"*ϦεΫͷ֓೦෼ྨʹֶ͍ͭͯͿ

    n ର৅ऀ • "*γεςϜఏڙऀ ˒ ɿطଘͷ"*ϞσϧΛ׆༻ͨ͠γεςϜαʔϏεΛߏஙɾఏڙ͍ͯ͠ΔਓɺͦͷྖҬʹڵຯ͕͋Δਓ • "*Ϟσϧ։ൃऀɿ৽ͨʹ"*Ϟσϧͷ։ൃΛ͍ͯ͠ΔਓɺͦͷྖҬʹڵຯ͕͋Δਓ • "*ΤϯυϢʔβʔɿ"*ͷϏδωε΍ࣾձͰར༻͢Δਓ ˞ಛʹ˒͕ओͳର৅ऀͱͳΓ·͢ɻ಺༰ͱͯ͠͸ॳֶऀ޲͚Ͱ͢ n ஫ҙ • ൃද಺༰͸ɺݸਓͷ஌ݟܦݧΛڞ༗͢Δ΋ͷͰ͋Γɺॴଐ૊৫ͷެࣜͳݟղͰ͸͋Γ·ͤΜ ˞ൃදऀ͸๏཯ͷઐ໳ՈͰ͸ͳ͘ɺҰհͷٕज़ऀͱͯ͠ௐࠪɾֶशͨ͠಺༰΍ݸਓͷղऍΛϕʔεʹ͓࿩͠͠·͢ͷͰɺ࣭͝໰಺༰ʹ Αͬͯ͸ճ౴Ͱ͖ͳ͍৔߹΋͋ΔࢫΛྃ͝ঝ͍ͩ͘͞ ʢେࣄͳ͜ͱͳͷͰ౓ݴ͍·ͨ͠ʣ • ࠓճͷษڧձ͸"*ͷٕज़తͳ಺༰ΑΓ΋ɺ੓෎ɾ๏཯ɾࣾձͷಈ͖ͳͲͷ಺༰͕த৺ʹͳΔࢫɺྃ͝ঝ͍ͩ͘͞ • ຊΠϕϯτͷࢿྉɾಈը͸ΞʔΧΠϒͱͯ͠ޙ΄Ͳެ։͠·͢
  3. ʖʖ ʖʖ AIリスクは2階建て n ʮ๏ͷ؟ʯͱʮࣾձͷ؟ʯ ࢀߟɿʰ"*ϦεΫڭຊʱ 法の眼(遵法性) • 明⽂化された法律に違反(著作権や個⼈情報保 護法

    など) • 訴訟を受けたり罰則を受けたりする可能性 社会の眼(社会的受容性) • 法律違反でないが、社会的道徳に反する • 個⼈や団体に損害や不快感を与えた結果、信 ⽤を失う可能性(レピュテーションリスク) 社会集団(地域、時 代 etc..)によって倫 理的な判断基準は 異なるのが難しい 急速な技術発展に 法整備がなかなか 追いつかない。 また、国外の法律 違反になる可能性 もあるのが難しい ࣍ʹ֤ࠃ੓෎ͷಈ޲ʹ͍ͭͯ֬ೝ͍ͯ͘͠
  4. ʖʖ ʖʖ 各国政府の動き(概観) n ೥͸"*نଇɾΨΠυϥΠϯݩ೥ɻޙ൒͔ΒΨΠυϥΠϯϥογϡ <US> 雇⽤決定におけるAIの使⽤を規制する法 律 (23/7/5 NW州)

    ボランタリー・コミットメントに主要AI ベンダー15社協⼒(23/7/21) AI Safety Institute (23/10/30) <UK> AI規制制作⽂書 AI Safety Institute (23/11/2) <EU> GDPR 欧州AI規則案 (23/6/14 欧州議会) <Japan> G7広島AIプロセスの策定合意 AIと著作権に関する考え⽅について(⽂化庁) FDUA(⾦融)で⾃主ガイド作成開始 AI Safety Institute (24/2/14) AI事業者ガイドライン(第1.0版)(経産省・総務省) 責任あるAI推進基本法(仮) (⾃⺠党) ˞ʰ"*ϦεΫڭຊʱΛࢀߟʹɺൃදऀ͕ௐࠪͨ͠಺༰΋൓ө
  5. ʖʖ ʖʖ EU︓GDPRの説明 n (%13ʢ(FOFSBM%BUB1SPUFDUJPO3FHVMBUJPOɿҰൠσʔλอޢنଇʣ ໨త •&6಺ͷنଇ౷Ұ •ݸਓσʔλอޢͷڧԽ ੍ఆɾࢪߦ •೥݄೔੍ఆ

    •೥݄೔ࢪߦ نఆ಺༰ • ݸਓ͕ࣗ෼ͷݸਓσʔλΛίϯτϩʔϧ͢ΔݖརΛ୲อ͢ΔͨΊͷɺσʔλ؅ཧऀ ͷٛ຿ʢઆ໌੹೚ɺಉҙऔಘɺϓϥΠόγʔอޢͳͲʣΛنఆ ๏త߆ଋྗ ʲ&&"˞಺ʳ •Ճໍࠃͷࠃ಺๏ʹ༏ઌͯ͠ద༻͞ΕɺՃໍࠃͷ੓෎౳ʹରͯ͠௚઀తͳ๏త߆ଋྗ Λٴ΅͢ ʲ&&"˞֎ʳ •&&"ͱऔҾͷ͋Δ͢΂ͯͷ૊৫͕ର৅ ˠ&&"Ҭ಺ʹ͋Δࢧళͷ׆ಈΛຊళ͕ॿ͚͍ͯΔΑ͏ͳ৔߹͸ɺຊళͷ׆ಈʹ΋ (%13͕ద༻͞ΕΔ ※EEA=EU27カ国とノルウェイ、リヒテンシュタイン、アイスランドを追加した30カ国のこと
  6. ʖʖ ʖʖ EU︓GDPRの22条 n GDPR 第22条 プロファイリングを含む⾃動化された個⼈意思決定 →AIの活⽤に対する制限について規定 第22条 プロファイリングを含む⾃動化された個⼈意思決定

    • 1. データ主体は、当該データ主体に関する法的効果をもたらすか⼜は当該 データ主体に同様 の重⼤な影響をもたらす、 プロファイリングなどの⾃動化された処理のみに基づいた決定に服しない権利を持つ。 • 2. 第1項は次に掲げるいずれかの決定には適⽤されない。 (a) データ主体とデータ管理者間の契約締結、⼜は履⾏に必要な決定。 (b) データ主体の権利及び⾃由並びに正当な利益を保護するための適切な措置が定められた管理 者が従うEU 法⼜は加盟国の国内法によって認められた決定。 (c) データ主体の明⽰的な同意に基づく決定。 • 3. 第2項(a)号及び(c)号で定める状況に関して、データ管理者は、データ主体の権利及び⾃由 並びに正当な利益を保護するための適切な措置を実施し、 少なくとも管理者側で⼈を介在させる権利、当該データ主体の⾒解を表明する権利、及び決定に 異議を唱える権利を実施するものとする。 • 4. 第2項で定める決定は、第9条第2項(a)号⼜は(g)号が適⽤されず、データ主体の権利及び⾃ 由並びに正当な利益を保護するための適切な措置が 機能していないならば、第9条第1項で定める特別な種類の個⼈データに基づいてはならない。
  7. ʖʖ ʖʖ EU︓GDPRの22条の解説 n GDPR 第22条 プロファイリングなどの基づく⾃動意志の決定 ものすごくざっくり要約すると・・・ • 本⼈に法的効果または同様の重⼤な影響

    をもたらすような、 • ⾃動化された意思決定・プロファイリングは 原則禁⽌︕ • ⼀部のケースは例外的にOKだが、 • それでも 本⼈の権利及び⾃由並びに正当な利益を保護す るための適切な措置を実施する義務がある︕ 例えば…就職活動の採⽤、お⾦の借り⼊れ判断、 病気の診断など プロファイリング︓ 特定の個⼈を評価するために実施する、個⼈の各 種情報(業務実績、経済状況、⾏動、健康など) の分析/予測に関連する処理全般 →AIによる個⼈分析なども含まれる ⼀部のケース︓ (a)本⼈と管理者間の契約締結、⼜は履⾏に必要なとき (b)本⼈の権利及び⾃由並びに正当な利益を保護するための 適切な措置が 定められた管理者が従うEU 法⼜は加盟国の 国内法によって認められたとき (c)本⼈の明⽰的な同意に基づくとき 適切な措置︓少なくとも、下記3点は含めるべき ・⼈の介在を得るための⽅法 ・⾃分の⾒解を表明するための⽅法 ・異議を唱えるための⽅法
  8. ʖʖ ʖʖ 欧州AI規則案 (EU AI Act) n 欧州議会・欧州委員会・欧州理事会で合意(=トリローグ通過)。2年後に法律化 主な特徴︓ •

    リスクベースアプローチ ⇨4種類のリスク︓Unacceptable / High / Limited / Minimal • ハードロー︓罰則を伴う法的拘束⼒ ⇨違反した場合、莫⼤な制裁⾦ • AI基盤モデル(Foundation Model)のプロバイダーの義務も定義 etc...
  9. ʖʖ ʖʖ ΫΠζ &6"*"DUҧ൓ͷ੍ࡋۚ͸ɺগͳ͘ͱ΋ͲΕ͘ Β͍ʁ 6OBDDFQUBCMFϦεΫͷ৔߹ ᶃສԁ ᶄສԁ ᶅԯສԁ ᶆԯԁ

    ちなみに⽇本の窃盗罪の法定刑は「1か⽉以上10年以下の懲役」または「1万円以上50万円以下の罰⾦」 (刑法第235条 刑法第12条1項 刑法第15条)
  10. ʖʖ ʖʖ ΫΠζ &6"*"DUҧ൓ͷ੍ࡋۚ͸ɺগͳ͘ͱ΋ͲΕ͘ Β͍ʁ 6OBDDFQUBCMFϦεΫͷ৔߹ " ԯԁ 6OBDDFQUBCMFϦεΫͷ੍ࡋۚ͸ɺ 

    ສϢʔϩ·ͨ͸શੈքച্ߴͷͷߴ͍ํ ˞Ϣʔϩԁͱ͢ΔͱɺສϢʔϩԯԁ ࢀߟɿ"NB[POͷੈքച্ߴ͸#ɻͦͷͩͱ          υϧԁͱ͢Δͱɺ    ໿ஹԁ ʢֹ͕ۚେ͖͗ͯ͢ܭࢉؒҧ͍ͯ͠ͳ͍͔ෆ҆ɻɻɻʣ
  11. ʖʖ ʖʖ 欧州AI規則案 (EU AI Act) n 想定されるEU域外への影響 ①EU域外のAIモデル開発者・AIシステム提供者も規制対象になるケースあり •

    EUに拠点があれば規制対象 • EUに拠点がなくとも、⾃社のAI製品の出⼒がEUでなされるなら対象 • EUに拠点がなくとも、商流の下流の企業や⼦会社がEUにあれば対象 ②EU AI Act のデファクトスタンダード化の可能性 • 現時点では制裁⾦を含む罰則規定を明⽂化した法律が⾃国でなくとも、 今後の法整備の中でEU AI Actの影響を受けて、ハードロー化する可能性
  12. ʖʖ ʖʖ 欧州AI規則案 (EU AI Act) n 無闇に規制しようというルールではない ①イノベーション⽀援の明⽂化 •

    AIの規制のサンドボックス制度 など ②AIのガードレールとしての機能 • 明確なルールがないと、予測が難しくなってビジネスリスクが⾼くなる • 例︓⾃動運転の法整備により、不備や事故による責任所在などのルール化 →イノベーションの促進 ⾰新的なAIシステムが市場に置かれる前に、期間限定で 開発・検証を促進するための制御された環境を提供。 他の⽬的で適法に収集された個⼈データを、サンドボック ス内の⼀定のAIのために利⽤することを、制限付きで認 める。さらに、⼩規模提供者などにサンドボックスへの優 先アクセスさせる ”AI規制“案ではなく、 あくまでも“AI規則”案
  13. ʖʖ ʖʖ ೔ຊɿ(޿ౡ"*ϓϩηε n ೥݄ɿ(޿ౡαϛοτͷट೴એݴʹͯʮ޿ౡ"*ϓϩηεʯͷਪਐ͕ܾఆ • ໨తɿࠃࡍࣾձશମͷॏཁͳ՝୊ͱͳ͍ͬͯΔੜ੒"*ʹ͍ͭͯٞ࿦͢Δ n ೥݄̕ɿதֳؒ྅ڃձ߹ɺ݄ɿ*('ژ౎ͰͷϚϧνεςʔΫϗϧμʔϋΠϨϕϧձ߹ n

    ೥݄ʮ޿ౡ"*ϓϩηεแׅత੓ࡦ࿮૊Έʯ͕(ट೴ʹঝೝ ࢀߟɿIUUQTXXXTPVNVHPKQIJSPTIJNBBJQSPDFTTJOEFYIUNM ࠃࡍࢦ਑ʹج͍ͮͯɺ֤ࠃͰ๏཯ɾΨΠυϥΠϯͷ੔උΛਪਐ ࢦ਑ 1SJODJQMF ߦಈنൣ $PEFPG$POEVDU
  14. ʖʖ ʖʖ ೔ຊɿ"*ࣄۀऀΨΠυϥΠϯ n ڞ௨ࢦ਑ ߲໨ ࢀߟɿIUUQTXXXNFUJHPKQQSFTTQEG n ߴ౓ͳ"*γεςϜʹؔ܎͢Δࣄۀऀʹڞ௨ͷࢦ਑ ߲໨

    • ಋೖࢢ৔౤ೖલʹ"*ϥΠϑαΠΫϧશମʹΘͨΔϦεΫΛಛఆɺධՁɺܰݮ͢ΔͨΊͷద੾ͳાஔ • ߴ౓ͳ"*γεςϜͷೳྗɺݶքɺద੾ɾෆద੾ͳ࢖༻ྖҬΛެද͠ɺे෼ͳಁ໌ੑͷ֬อ • ϦεΫϕʔεͷΞϓϩʔνʹ΋ͱͮ͘"*ΨόφϯεٴͼϦεΫ؅ཧํ਑Λࡦఆɾ࣮ࢪɾ։ࣔ ͳͲ
  15. ʖʖ ʖʖ ೔ຊɿ"*։ൃͷ๏ن੍ݕ౼ ϋʔυϩʔ n ೥݄೔ͷ೔ܦ৽ฉͷهࣄ ࢀߟɿIUUQTXXXOJLLFJDPNBSUJDMF%(9;206"$&"9$" ϙΠϯτ˞ • େن໛ͳ"*։ൃاۀʹয఺

    • ϦεΫͷߴ͍։ൃʹ͍ͭͯ͸ୈࡾऀʹΑΔ҆શੑͷݕূ • ϦεΫ৘ใΛ੓෎ͱڞ༗͢Δ͜ͱΛٻΊΔ ˞/*,,&*"TJBͷهࣄΛݩʹ੔ཧ IUUQTBTJBOJLLFJDPN#VTJOFTT5FDIOPMPHZ+BQBO XFJHITSFHVMBUJOH"*EFWFMPQFSTGPMMPXJOH64BOE&6 ଞͷϝσΟΞ΋௥͏Α͏ʹಉ༷ͷهࣄΛൃද
  16. ʖʖ ʖʖ 信頼できるAI(Trustworthy AI) n ৴པͰ͖Δ"*ͷجຊಛੑ 基本特性 概要 説明可能性 Explainability

    • AI利⽤者に対して、AIの判断根拠(どのような属性・アルゴリズムを使ったかなど) を理解可能な状態で説明できること 公平性 Fairness • 多様性の観点から、アルゴリズムやデータにバイアス(偏り)がなく、意図しない結果 を防⽌し、不当な差別が発⽣させず公平性を担保すること 堅牢性 Robustness • セキュリティや信頼性の観点から安全性が担保され、不測の事態や想定外の事象にも 対応できること 透明性 Transparency • 学習データの収集・保管・利⽤⽅法・⽬的、モデルやサービスの開発⽅法に関する情 報を開⽰して、AIの能⼒の限界を明確にし、AIの適切な活⽤場⾯を判断しやすくする こと データの権利/ プライバシーの尊重 Privacy • 個⼈のプライバシー尊重・保護の観点からデータ管理⽅法や活⽤範囲を開⽰すること • 個⼈が⾃⼰のデータの取り扱いを選択できるようすること • 暗号化などによりデータ保護が可能であること ࢀߟɿʰ"*ϦεΫڭຊʱ
  17. ʖʖ ʖʖ AIリスクの整理 n ʰ"*ϦεΫڭຊʱͰ͸छྨͷϦεΫΛ෼ྨɻͦͷத͔ΒϐοΫΞοϓͯ͠ࢲͳΓʹ੔ཧͯ͠঺հ ࢀߟɿʰ"*ϦεΫڭຊʱ 基本特性 主なAIリスク 主に誰にとって︖ 説明可能性

    Explainability AIが予測を間違えるリスク(ハルシネーション) AIシステム提供者 AIエンドユーザー AIの挙動を理解・説明できないリスク AIシステム提供者 公平性 Fairness AIが差別的/公平性のない出⼒をするリスク AIエンドユーザー AIが本来根拠としてはならない情報に基づいた判断を してしまうリスク(バイアス) AIシステム提供者 AIエンドユーザー 堅牢性 Robustness AIの精度が徐々に劣化するリスク(データドリフト) AIシステム提供者 AIに判断を間違わせる攻撃のリスク (敵対的サンプル、回避攻撃、ノイズ耐性) AIモデル開発者 AIシステム提供者 透明性 Transparency AIを⼈であると誤解してしまうリスク AIエンドユーザー AIサービスの責任の所在が不明確になるリスク ALL データの権利/ プライバシーの尊重 Privacy ⽣成AIが著作権/肖像権を侵害するリスク AIシステム提供者 AIエンドユーザー ⽣成AIの利⽤で著作権が認められなくなるリスク AIエンドユーザー ⽣成AIが個⼈情報を出⼒するリスク AIモデル開発者 AIシステム提供者
  18. ʖʖ ʖʖ AIリスクの整理 n ϦεΫͷղઆ ࢀߟɿʰ"*ϦεΫڭຊʱ 基本特性 主なAIリスク 主に誰にとって︖ 説明可能性

    Explainability AIの挙動を理解・説明できないリスク AIシステム提供者 n ೉͍͠఺ • ۙ೥ͷ"*͸ؼೲ๏తͰϒϥοΫϘοΫεͳੑ࣭Λ͕࣋ͭɺઆ໌੹೚͸ٻΊΒΕΔ n ͭͷઆ໌ • ہॴతͳઆ໌ɿಛఆͷ"*ͷग़ྗ݁Ռʹରͯ͠ɺͲͷΑ͏ͳಛ௃ྔ͕ͲΕ͘Β͍ӨڹΛٴ΅͔ͨ͠ • େہతͳઆ໌ɿ"*ͷશൠతͳৼΔ෣͍ʹ͍ͭͯɺ֤ಛ௃ྔ΍൑அϩδοΫ͕ͲͷΑ͏ʹ࡞༻͢Δ͔ n ରࡦྫ • આ໌ΛٻΊΒΕͨ࣌ɺ"*ͷग़ྗ݁Ռͷ൑அࠜڌ΍ৼΔ෣͍ΛՄࢹԽͰ͖Δ࢓૊ΈΛ४උ͢Δ • "*ͷग़ྗ͸ྨࣅࣄྫ΍ϨίϝϯυʹͱͲΊɺ࠷ऴతͳ൑அ͸ਓ͕࣮ؒࢪ͢Δ
  19. ʖʖ ʖʖ AIリスクの整理 n ϦεΫͷղઆ ࢀߟɿʰ"*ϦεΫڭຊʱ 基本特性 主なAIリスク 主に誰にとって︖ 公平性

    Fairness AIが本来根拠としてはならない情報に基づいた判断を してしまうリスク(バイアス) AIシステム提供者 AIエンドユーザー n ೉͍͠఺ɿอޢଐੑʢ"*͕൑அͷࠜڌͱ͢Δ΂͖Ͱͳ͍ݸਓͷଐੑʣ • ੑผɺਓछɺ೥ྸɺډॅ஍ɺफڭ FUD • อޢଐੑͱ૬ؔͷߴ͍ଐੑʹ΋஫ҙ ü ྫɿߪങཤྺˠੑผɺ༣ศ൪߸ˠډॅ஍ਓछ n ରࡦྫ • ಛ௃ྔʹόΠΞε͕ͳ͍͔ϞχλϦϯά • ಛఆͷάϧʔϓΛ୅ද͢ΔΑ͏ͳಛ௃ྔΛ࡟আ ʢόΠΞε͕͋ͬͯ΋ɺαʔϏεͷੑ࣭΍ऩӹੑͷ؍఺Ͱઆ໌ՄೳͳΒڐ༰͢Δͱ͍͏൑அ΋͋Γ͑Δ͕ʣ
  20. ʖʖ ʖʖ AIリスクの整理 n ϦεΫͷղઆ ࢀߟɿʰ"*ϦεΫڭຊʱ 基本特性 主なAIリスク 主に誰にとって︖ 透明性

    Transparency AIサービスの責任の所在が不明確になるリスク (その結果、安⼼して導⼊できない/使えない) ALL n ೉͍͠఺ • εςʔΫϗϧμʔͷଟ૚Խ ü ج൫ϞσϧΛ࡞ΔਓɺϑΝΠϯνϡʔχϯά͢Δਓɺ"*γεςϜΛఏڙ͢Δਓɺ"*γεςϜͷΤϯυϢʔβʔ • ๏੔උ͕ͳ͔ͳ͔ਐ·ͳ͍ n ରࡦྫ • ๏੔උ͕ਐ·ͳ͍಺͸ɺώϡʔϚϯΠϯβϧʔϓʢਓؒࢀՃܕʣͷઃܭͰ൑அɾ੹೚ऀΛ໌֬ʹ͢Δ • ֶशσʔλͷऩूɾอ؅ɾར༻ํ๏ɾ໨తɺϞσϧ΍αʔϏεͷ։ൃํ๏ʹؔ͢Δ৘ใΛ։ࣔ͢Δ