Slide 1

Slide 1 text

© 2024 IBM Corporation ʲϦϥϯʳ"*ͷޫͱҋʁࣦഊ͠ͳ͍ͨΊʹ ஌͓͖͍ͬͯͨ"*ϦεΫͱͦͷରԠ ᶃ੓෎ͷಈ͖ฤ ೥݄೔ 5BLBIJSP&TBLJ 5FDI%PKP

Slide 2

Slide 2 text

ʖʖ ʖʖ ΞδΣϯμ 1 ͸͡Ίʹ 2 AIϦεΫʹର͢Δ੓෎ͷಈ޲ 3 AIϦεΫͷ֓೦ɾ෼ྨ 4 ͓ΘΓʹ

Slide 3

Slide 3 text

ʖʖ ʖʖ ߨࢣ঺հ ʲܦྺʳ nۀ຿*5ίϯαϧςΟϯά • جװγεςϜӡ༻อकۀ຿վֵ • جװγεςϜ࡮৽1.0 • αϓϥΠνΣʔϯ࠷దԽधཁ༧ଌ࠷దԽ • σʔλ෼ੳγεςϜ࡮৽1.ΞʔΩςΫνϟઃܭ ͳͲ n৽نࣄۀ։ൃɾΞδϟΠϧ։ൃɾϩʔίʔυ։ൃ • Ϋϥ΢υιʔγϯάϓϥοτϑΥʔϜαʔϏε • ΞύϨϧϓϥοτϑΥʔϜαʔϏε • ւ֎ΫϦΤʔλʔ޲͚F-FBSOJOHαʔϏε ͳͲ n$4. ΧελϚʔαΫηεϚωʔδϟʔ • "*$MPVEιϦϡʔγϣϯͷ׆༻ଅਐ • ίϛϡχςΟ׆ಈɾΞυϘέʔτ׆ಈ ͳͲ ˞ຊߨԋɾຊࢿྉ͸ॴଐ૊৫Λ୅ද͢Δ΋ͷͰ͸͍͟͝·ͤΜ ˞ൃදऀ͸๏཯ͷઐ໳ՈͰ͸ͳ͘ɺݸਓతͳษڧ໨తͰௐࠪͨ͠಺༰Λڞ༗͠·͢ ߐ㟒 ਸߒ ʢ5BLBIJSP&TBLJʣ X @t_esaking LinkedIn

Slide 4

Slide 4 text

ʖʖ ʖʖ ຊ೔ͷ໨త n ΰʔϧ • "*ͷ҆શͳ׆༻ΛਐΊͯ΋Β͏ͨΊɺ"*ϦεΫʹֶ͍ͭͯͿ ʢ·ͣ͸ɺ஌ͬͯ΋Β͏ɾڵຯΛ࣋ͬͯ΋Β͏ʣ • ࠓճ͸ʮ੓෎ͷಈ͖ฤʯͱͯ͠ɺ֤ࠃ੓෎ͷಈ޲΍"*ϦεΫͷ֓೦෼ྨʹֶ͍ͭͯͿ n ର৅ऀ • "*γεςϜఏڙऀ ˒ ɿطଘͷ"*ϞσϧΛ׆༻ͨ͠γεςϜαʔϏεΛߏஙɾఏڙ͍ͯ͠ΔਓɺͦͷྖҬʹڵຯ͕͋Δਓ • "*Ϟσϧ։ൃऀɿ৽ͨʹ"*Ϟσϧͷ։ൃΛ͍ͯ͠ΔਓɺͦͷྖҬʹڵຯ͕͋Δਓ • "*ΤϯυϢʔβʔɿ"*ͷϏδωε΍ࣾձͰར༻͢Δਓ ˞ಛʹ˒͕ओͳର৅ऀͱͳΓ·͢ɻ಺༰ͱͯ͠͸ॳֶऀ޲͚Ͱ͢ n ஫ҙ • ൃද಺༰͸ɺݸਓͷ஌ݟܦݧΛڞ༗͢Δ΋ͷͰ͋Γɺॴଐ૊৫ͷެࣜͳݟղͰ͸͋Γ·ͤΜ ˞ൃදऀ͸๏཯ͷઐ໳ՈͰ͸ͳ͘ɺҰհͷٕज़ऀͱͯ͠ௐࠪɾֶशͨ͠಺༰΍ݸਓͷղऍΛϕʔεʹ͓࿩͠͠·͢ͷͰɺ࣭͝໰಺༰ʹ Αͬͯ͸ճ౴Ͱ͖ͳ͍৔߹΋͋ΔࢫΛྃ͝ঝ͍ͩ͘͞ ʢେࣄͳ͜ͱͳͷͰ౓ݴ͍·ͨ͠ʣ • ࠓճͷษڧձ͸"*ͷٕज़తͳ಺༰ΑΓ΋ɺ੓෎ɾ๏཯ɾࣾձͷಈ͖ͳͲͷ಺༰͕த৺ʹͳΔࢫɺྃ͝ঝ͍ͩ͘͞ • ຊΠϕϯτͷࢿྉɾಈը͸ΞʔΧΠϒͱͯ͠ޙ΄Ͳެ։͠·͢

Slide 5

Slide 5 text

ʖʖ ʖʖ ͜ͷษڧձͷ಺༰ʹ͍ͭͯ IUUQTTUVEZDPDPOOQBTTDPNFWFOU 4UVEZ$Pͱ͍͏ίϛϡχςΟ Ͱൃදͨ͠಺༰Λ ΄΅౿ऻʢωλ߇͑Ίʣ IUUQTDPOOQBTTDPNFWFOU ௥ՃͰʮ޿ౡ"*ϓϩηεʯ ʮ"*ࣄۀऀΨΠυϥΠϯʯ ʮ೔ຊͷ"*։ൃʹ๏ن੍ݕ౼ʯ ʹ͍ͭͯ΋આ໌

Slide 6

Slide 6 text

ʖʖ ʖʖ ࢀߟॻ੶ AIリスク教本 攻めのディフェンスで危機回避&ビジネス加速 著者︓⽇本IBM AI倫理チーム 出版社︓⽇経BP Amazonリンク︓https://amzn.asia/d/2XJQYml ˞ຊߨԋɾຊࢿྉ͸ॴଐ૊৫Λ୅ද͢Δ΋ͷͰ͸͍͟͝·ͤΜ ʢେࣄͳ͜ͱͳͷͰSZʣ

Slide 7

Slide 7 text

ʖʖ ʖʖ Ξϯέʔτʹ͝ڠྗ͍ͩ͘͞ IUUQTBQQTMJEPFWFOUPKBN$Q"O[R3.1Y)U'EG

Slide 8

Slide 8 text

ʖʖ ʖʖ ΞδΣϯμ 1 ͸͡Ίʹ 2 AIϦεΫʹର͢Δ੓෎ͷಈ޲ 3 AIϦεΫͷ֓೦ɾ෼ྨ 4 ͓ΘΓʹ

Slide 9

Slide 9 text

ʖʖ ʖʖ AIリスクはホットなテーマ AIը૾ੜ੒ɾੜ੒ܥAI ໰୊·ͱΊwiki https://w.atwiki.jp/genai_problem/pages/50.html ࣌ࣄυοτίϜχϡʔε https://www.jiji.com/jc/article?k=2024031600022&g=int

Slide 10

Slide 10 text

ʖʖ ʖʖ AIリスクは2階建て n ʮ๏ͷ؟ʯͱʮࣾձͷ؟ʯ ࢀߟɿʰ"*ϦεΫڭຊʱ 法の眼(遵法性) • 明⽂化された法律に違反(著作権や個⼈情報保 護法 など) • 訴訟を受けたり罰則を受けたりする可能性 社会の眼(社会的受容性) • 法律違反でないが、社会的道徳に反する • 個⼈や団体に損害や不快感を与えた結果、信 ⽤を失う可能性(レピュテーションリスク) 社会集団(地域、時 代 etc..)によって倫 理的な判断基準は 異なるのが難しい 急速な技術発展に 法整備がなかなか 追いつかない。 また、国外の法律 違反になる可能性 もあるのが難しい ࣍ʹ֤ࠃ੓෎ͷಈ޲ʹ͍ͭͯ֬ೝ͍ͯ͘͠

Slide 11

Slide 11 text

ʖʖ ʖʖ 各国政府の動き(概観) n ೥͸"*نଇɾΨΠυϥΠϯݩ೥ɻޙ൒͔ΒΨΠυϥΠϯϥογϡ <US> 雇⽤決定におけるAIの使⽤を規制する法 律 (23/7/5 NW州) ボランタリー・コミットメントに主要AI ベンダー15社協⼒(23/7/21) AI Safety Institute (23/10/30) <UK> AI規制制作⽂書 AI Safety Institute (23/11/2) <EU> GDPR 欧州AI規則案 (23/6/14 欧州議会) <Japan> G7広島AIプロセスの策定合意 AIと著作権に関する考え⽅について(⽂化庁) FDUA(⾦融)で⾃主ガイド作成開始 AI Safety Institute (24/2/14) AI事業者ガイドライン(第1.0版)(経産省・総務省) 責任あるAI推進基本法(仮) (⾃⺠党) ˞ʰ"*ϦεΫڭຊʱΛࢀߟʹɺൃදऀ͕ௐࠪͨ͠಺༰΋൓ө

Slide 12

Slide 12 text

ʖʖ ʖʖ &6ͷಈ޲

Slide 13

Slide 13 text

ʖʖ ʖʖ EU︓GDPRの説明 n (%13ʢ(FOFSBM%BUB1SPUFDUJPO3FHVMBUJPOɿҰൠσʔλอޢنଇʣ ໨త •&6಺ͷنଇ౷Ұ •ݸਓσʔλอޢͷڧԽ ੍ఆɾࢪߦ •೥݄೔੍ఆ •೥݄೔ࢪߦ نఆ಺༰ • ݸਓ͕ࣗ෼ͷݸਓσʔλΛίϯτϩʔϧ͢ΔݖརΛ୲อ͢ΔͨΊͷɺσʔλ؅ཧऀ ͷٛ຿ʢઆ໌੹೚ɺಉҙऔಘɺϓϥΠόγʔอޢͳͲʣΛنఆ ๏త߆ଋྗ ʲ&&"˞಺ʳ •Ճໍࠃͷࠃ಺๏ʹ༏ઌͯ͠ద༻͞ΕɺՃໍࠃͷ੓෎౳ʹରͯ͠௚઀తͳ๏త߆ଋྗ Λٴ΅͢ ʲ&&"˞֎ʳ •&&"ͱऔҾͷ͋Δ͢΂ͯͷ૊৫͕ର৅ ˠ&&"Ҭ಺ʹ͋Δࢧళͷ׆ಈΛຊళ͕ॿ͚͍ͯΔΑ͏ͳ৔߹͸ɺຊళͷ׆ಈʹ΋ (%13͕ద༻͞ΕΔ ※EEA=EU27カ国とノルウェイ、リヒテンシュタイン、アイスランドを追加した30カ国のこと

Slide 14

Slide 14 text

ʖʖ ʖʖ EU︓GDPRの22条 n GDPR 第22条 プロファイリングを含む⾃動化された個⼈意思決定 →AIの活⽤に対する制限について規定 第22条 プロファイリングを含む⾃動化された個⼈意思決定 • 1. データ主体は、当該データ主体に関する法的効果をもたらすか⼜は当該 データ主体に同様 の重⼤な影響をもたらす、 プロファイリングなどの⾃動化された処理のみに基づいた決定に服しない権利を持つ。 • 2. 第1項は次に掲げるいずれかの決定には適⽤されない。 (a) データ主体とデータ管理者間の契約締結、⼜は履⾏に必要な決定。 (b) データ主体の権利及び⾃由並びに正当な利益を保護するための適切な措置が定められた管理 者が従うEU 法⼜は加盟国の国内法によって認められた決定。 (c) データ主体の明⽰的な同意に基づく決定。 • 3. 第2項(a)号及び(c)号で定める状況に関して、データ管理者は、データ主体の権利及び⾃由 並びに正当な利益を保護するための適切な措置を実施し、 少なくとも管理者側で⼈を介在させる権利、当該データ主体の⾒解を表明する権利、及び決定に 異議を唱える権利を実施するものとする。 • 4. 第2項で定める決定は、第9条第2項(a)号⼜は(g)号が適⽤されず、データ主体の権利及び⾃ 由並びに正当な利益を保護するための適切な措置が 機能していないならば、第9条第1項で定める特別な種類の個⼈データに基づいてはならない。

Slide 15

Slide 15 text

ʖʖ ʖʖ EU︓GDPRの22条の解説 n GDPR 第22条 プロファイリングなどの基づく⾃動意志の決定 ものすごくざっくり要約すると・・・ • 本⼈に法的効果または同様の重⼤な影響 をもたらすような、 • ⾃動化された意思決定・プロファイリングは 原則禁⽌︕ • ⼀部のケースは例外的にOKだが、 • それでも 本⼈の権利及び⾃由並びに正当な利益を保護す るための適切な措置を実施する義務がある︕ 例えば…就職活動の採⽤、お⾦の借り⼊れ判断、 病気の診断など プロファイリング︓ 特定の個⼈を評価するために実施する、個⼈の各 種情報(業務実績、経済状況、⾏動、健康など) の分析/予測に関連する処理全般 →AIによる個⼈分析なども含まれる ⼀部のケース︓ (a)本⼈と管理者間の契約締結、⼜は履⾏に必要なとき (b)本⼈の権利及び⾃由並びに正当な利益を保護するための 適切な措置が 定められた管理者が従うEU 法⼜は加盟国の 国内法によって認められたとき (c)本⼈の明⽰的な同意に基づくとき 適切な措置︓少なくとも、下記3点は含めるべき ・⼈の介在を得るための⽅法 ・⾃分の⾒解を表明するための⽅法 ・異議を唱えるための⽅法

Slide 16

Slide 16 text

ʖʖ ʖʖ 欧州AI規則案 (EU AI Act) n 欧州議会・欧州委員会・欧州理事会で合意(=トリローグ通過)。2年後に法律化 主な特徴︓ • リスクベースアプローチ ⇨4種類のリスク︓Unacceptable / High / Limited / Minimal • ハードロー︓罰則を伴う法的拘束⼒ ⇨違反した場合、莫⼤な制裁⾦ • AI基盤モデル(Foundation Model)のプロバイダーの義務も定義 etc...

Slide 17

Slide 17 text

ʖʖ ʖʖ 欧州AI規則案 (EU AI Act) n リスクレベルごとの対象AIシステム ग़యɿ18$ʰԤभʮ"*نଇҊʯͷղઆʱ IUUQTXXXQXDDPNKQKBLOPXMFEHFDPMVNOBXBSFOFTTDZCFSTFDVSJUZHFOFSBUJWFBJSFHVMBUJPOIUNM EUの価値観︓ 基本的権利保護。⼈権・⾃由・⼈間中⼼ など Unacceptable Limited Minimal High

Slide 18

Slide 18 text

ʖʖ ʖʖ ΫΠζ &6"*"DUҧ൓ͷ੍ࡋۚ͸ɺগͳ͘ͱ΋ͲΕ͘ Β͍ʁ 6OBDDFQUBCMFϦεΫͷ৔߹ ᶃສԁ ᶄສԁ ᶅԯສԁ ᶆԯԁ ちなみに⽇本の窃盗罪の法定刑は「1か⽉以上10年以下の懲役」または「1万円以上50万円以下の罰⾦」 (刑法第235条 刑法第12条1項 刑法第15条)

Slide 19

Slide 19 text

ʖʖ ʖʖ ΫΠζ &6"*"DUҧ൓ͷ੍ࡋۚ͸ɺগͳ͘ͱ΋ͲΕ͘ Β͍ʁ 6OBDDFQUBCMFϦεΫͷ৔߹ " ԯԁ 6OBDDFQUBCMFϦεΫͷ੍ࡋۚ͸ɺ ສϢʔϩ·ͨ͸શੈքച্ߴͷͷߴ͍ํ ˞Ϣʔϩԁͱ͢ΔͱɺສϢʔϩԯԁ ࢀߟɿ"NB[POͷੈքച্ߴ͸#ɻͦͷͩͱ υϧԁͱ͢Δͱɺ ໿ஹԁ ʢֹ͕ۚେ͖͗ͯ͢ܭࢉؒҧ͍ͯ͠ͳ͍͔ෆ҆ɻɻɻʣ

Slide 20

Slide 20 text

ʖʖ ʖʖ 欧州AI規則案 (EU AI Act) n 想定されるEU域外への影響 ①EU域外のAIモデル開発者・AIシステム提供者も規制対象になるケースあり • EUに拠点があれば規制対象 • EUに拠点がなくとも、⾃社のAI製品の出⼒がEUでなされるなら対象 • EUに拠点がなくとも、商流の下流の企業や⼦会社がEUにあれば対象 ②EU AI Act のデファクトスタンダード化の可能性 • 現時点では制裁⾦を含む罰則規定を明⽂化した法律が⾃国でなくとも、 今後の法整備の中でEU AI Actの影響を受けて、ハードロー化する可能性

Slide 21

Slide 21 text

ʖʖ ʖʖ 欧州AI規則案 (EU AI Act) n 無闇に規制しようというルールではない ①イノベーション⽀援の明⽂化 • AIの規制のサンドボックス制度 など ②AIのガードレールとしての機能 • 明確なルールがないと、予測が難しくなってビジネスリスクが⾼くなる • 例︓⾃動運転の法整備により、不備や事故による責任所在などのルール化 →イノベーションの促進 ⾰新的なAIシステムが市場に置かれる前に、期間限定で 開発・検証を促進するための制御された環境を提供。 他の⽬的で適法に収集された個⼈データを、サンドボック ス内の⼀定のAIのために利⽤することを、制限付きで認 める。さらに、⼩規模提供者などにサンドボックスへの優 先アクセスさせる ”AI規制“案ではなく、 あくまでも“AI規則”案

Slide 22

Slide 22 text

ʖʖ ʖʖ ೔ຊͷಈ޲

Slide 23

Slide 23 text

ʖʖ ʖʖ ೔ຊɿ(޿ౡ"*ϓϩηε n ೥݄ɿ(޿ౡαϛοτͷट೴એݴʹͯʮ޿ౡ"*ϓϩηεʯͷਪਐ͕ܾఆ • ໨తɿࠃࡍࣾձશମͷॏཁͳ՝୊ͱͳ͍ͬͯΔੜ੒"*ʹ͍ͭͯٞ࿦͢Δ n ೥݄̕ɿதֳؒ྅ڃձ߹ɺ݄ɿ*('ژ౎ͰͷϚϧνεςʔΫϗϧμʔϋΠϨϕϧձ߹ n ೥݄ʮ޿ౡ"*ϓϩηεแׅత੓ࡦ࿮૊Έʯ͕(ट೴ʹঝೝ ࢀߟɿIUUQTXXXTPVNVHPKQIJSPTIJNBBJQSPDFTTJOEFYIUNM ࠃࡍࢦ਑ʹج͍ͮͯɺ֤ࠃͰ๏཯ɾΨΠυϥΠϯͷ੔උΛਪਐ ࢦ਑ 1SJODJQMF ߦಈنൣ $PEFPG$POEVDU

Slide 24

Slide 24 text

ʖʖ ʖʖ ⽇本︓⼈間中⼼のAI社会原則 n 内閣府にて「⼈間中⼼のAI社会原則」を整備 (2019年) • 7つの原則の中の1つとして、公平性・説明責任・透明性について規定 参考︓ https://www.cas.go.jp/jp/seisaku/jinkouchinou/r02_dai01/sanko2.pdf https://www5.cao.go.jp/keizai-shimon/kaigi/special/reform/wg7/20191101/shiryou1.pdf 7つの原則 の中で、 公平性・説 明責任・透 明性につい て規定

Slide 25

Slide 25 text

ʖʖ ʖʖ ೔ຊɿ"*ࣄۀऀΨΠυϥΠϯ n ΨΠυϥΠϯͷҐஔ෇͚ ࢀߟɿIUUQTXXXNFUJHPKQQSFTTQEG

Slide 26

Slide 26 text

ʖʖ ʖʖ ೔ຊɿ"*ࣄۀऀΨΠυϥΠϯ n ΨΠυϥΠϯͷείʔϓɿର৅͸"*։ൃऀɾఏڙऀɾར༻ऀͷऀ ࢀߟɿIUUQTXXXNFUJHPKQQSFTTQEG

Slide 27

Slide 27 text

ʖʖ ʖʖ ೔ຊɿ"*ࣄۀऀΨΠυϥΠϯ n ڞ௨ࢦ਑ ߲໨ ࢀߟɿIUUQTXXXNFUJHPKQQSFTTQEG n ߴ౓ͳ"*γεςϜʹؔ܎͢Δࣄۀऀʹڞ௨ͷࢦ਑ ߲໨ • ಋೖࢢ৔౤ೖલʹ"*ϥΠϑαΠΫϧશମʹΘͨΔϦεΫΛಛఆɺධՁɺܰݮ͢ΔͨΊͷద੾ͳાஔ • ߴ౓ͳ"*γεςϜͷೳྗɺݶքɺద੾ɾෆద੾ͳ࢖༻ྖҬΛެද͠ɺे෼ͳಁ໌ੑͷ֬อ • ϦεΫϕʔεͷΞϓϩʔνʹ΋ͱͮ͘"*ΨόφϯεٴͼϦεΫ؅ཧํ਑Λࡦఆɾ࣮ࢪɾ։ࣔ ͳͲ

Slide 28

Slide 28 text

ʖʖ ʖʖ ೔ຊɿ"*։ൃͷ๏ن੍ݕ౼ ϋʔυϩʔ n ೥݄೔ͷ೔ܦ৽ฉͷهࣄ ࢀߟɿIUUQTXXXOJLLFJDPNBSUJDMF%(9;206"$&"9$" ϙΠϯτ˞ • େن໛ͳ"*։ൃاۀʹয఺ • ϦεΫͷߴ͍։ൃʹ͍ͭͯ͸ୈࡾऀʹΑΔ҆શੑͷݕূ • ϦεΫ৘ใΛ੓෎ͱڞ༗͢Δ͜ͱΛٻΊΔ ˞/*,,&*"TJBͷهࣄΛݩʹ੔ཧ IUUQTBTJBOJLLFJDPN#VTJOFTT5FDIOPMPHZ+BQBO XFJHITSFHVMBUJOH"*EFWFMPQFSTGPMMPXJOH64BOE&6 ଞͷϝσΟΞ΋௥͏Α͏ʹಉ༷ͷهࣄΛൃද

Slide 29

Slide 29 text

ʖʖ ʖʖ ೔ຊɿ"*։ൃͷ๏ن੍ݕ౼ ϋʔυϩʔ n ೥݄೔ɿࣗຽౘʮ੹೚͋Δ"*ͷਪਐͷͨΊͷ๏తΨόφϯεʹؔ͢ΔૉҊʯ ࢀߟɿ IUUQTXXXUBJSBNKQBJIUNM

Slide 30

Slide 30 text

ʖʖ ʖʖ ΞδΣϯμ 1 ͸͡Ίʹ 2 AIϦεΫʹର͢Δ੓෎ͷಈ޲ 3 AIϦεΫͷ֓೦ɾ෼ྨ 4 ͓ΘΓʹ

Slide 31

Slide 31 text

ʖʖ ʖʖ 信頼できるAI(Trustworthy AI) n ৴པͰ͖Δ"*ͷجຊಛੑ 基本特性 概要 説明可能性 Explainability • AI利⽤者に対して、AIの判断根拠(どのような属性・アルゴリズムを使ったかなど) を理解可能な状態で説明できること 公平性 Fairness • 多様性の観点から、アルゴリズムやデータにバイアス(偏り)がなく、意図しない結果 を防⽌し、不当な差別が発⽣させず公平性を担保すること 堅牢性 Robustness • セキュリティや信頼性の観点から安全性が担保され、不測の事態や想定外の事象にも 対応できること 透明性 Transparency • 学習データの収集・保管・利⽤⽅法・⽬的、モデルやサービスの開発⽅法に関する情 報を開⽰して、AIの能⼒の限界を明確にし、AIの適切な活⽤場⾯を判断しやすくする こと データの権利/ プライバシーの尊重 Privacy • 個⼈のプライバシー尊重・保護の観点からデータ管理⽅法や活⽤範囲を開⽰すること • 個⼈が⾃⼰のデータの取り扱いを選択できるようすること • 暗号化などによりデータ保護が可能であること ࢀߟɿʰ"*ϦεΫڭຊʱ

Slide 32

Slide 32 text

ʖʖ ʖʖ AIリスクの整理 n ʰ"*ϦεΫڭຊʱͰ͸छྨͷϦεΫΛ෼ྨɻͦͷத͔ΒϐοΫΞοϓͯ͠ࢲͳΓʹ੔ཧͯ͠঺հ ࢀߟɿʰ"*ϦεΫڭຊʱ 基本特性 主なAIリスク 主に誰にとって︖ 説明可能性 Explainability AIが予測を間違えるリスク(ハルシネーション) AIシステム提供者 AIエンドユーザー AIの挙動を理解・説明できないリスク AIシステム提供者 公平性 Fairness AIが差別的/公平性のない出⼒をするリスク AIエンドユーザー AIが本来根拠としてはならない情報に基づいた判断を してしまうリスク(バイアス) AIシステム提供者 AIエンドユーザー 堅牢性 Robustness AIの精度が徐々に劣化するリスク(データドリフト) AIシステム提供者 AIに判断を間違わせる攻撃のリスク (敵対的サンプル、回避攻撃、ノイズ耐性) AIモデル開発者 AIシステム提供者 透明性 Transparency AIを⼈であると誤解してしまうリスク AIエンドユーザー AIサービスの責任の所在が不明確になるリスク ALL データの権利/ プライバシーの尊重 Privacy ⽣成AIが著作権/肖像権を侵害するリスク AIシステム提供者 AIエンドユーザー ⽣成AIの利⽤で著作権が認められなくなるリスク AIエンドユーザー ⽣成AIが個⼈情報を出⼒するリスク AIモデル開発者 AIシステム提供者

Slide 33

Slide 33 text

ʖʖ ʖʖ AIリスクの整理 n ϦεΫͷղઆ ࢀߟɿʰ"*ϦεΫڭຊʱ 基本特性 主なAIリスク 主に誰にとって︖ 説明可能性 Explainability AIの挙動を理解・説明できないリスク AIシステム提供者 n ೉͍͠఺ • ۙ೥ͷ"*͸ؼೲ๏తͰϒϥοΫϘοΫεͳੑ࣭Λ͕࣋ͭɺઆ໌੹೚͸ٻΊΒΕΔ n ͭͷઆ໌ • ہॴతͳઆ໌ɿಛఆͷ"*ͷग़ྗ݁Ռʹରͯ͠ɺͲͷΑ͏ͳಛ௃ྔ͕ͲΕ͘Β͍ӨڹΛٴ΅͔ͨ͠ • େہతͳઆ໌ɿ"*ͷશൠతͳৼΔ෣͍ʹ͍ͭͯɺ֤ಛ௃ྔ΍൑அϩδοΫ͕ͲͷΑ͏ʹ࡞༻͢Δ͔ n ରࡦྫ • આ໌ΛٻΊΒΕͨ࣌ɺ"*ͷग़ྗ݁Ռͷ൑அࠜڌ΍ৼΔ෣͍ΛՄࢹԽͰ͖Δ࢓૊ΈΛ४උ͢Δ • "*ͷग़ྗ͸ྨࣅࣄྫ΍ϨίϝϯυʹͱͲΊɺ࠷ऴతͳ൑அ͸ਓ͕࣮ؒࢪ͢Δ

Slide 34

Slide 34 text

ʖʖ ʖʖ AIリスクの整理 n ϦεΫͷղઆ ࢀߟɿʰ"*ϦεΫڭຊʱ 基本特性 主なAIリスク 主に誰にとって︖ 公平性 Fairness AIが本来根拠としてはならない情報に基づいた判断を してしまうリスク(バイアス) AIシステム提供者 AIエンドユーザー n ೉͍͠఺ɿอޢଐੑʢ"*͕൑அͷࠜڌͱ͢Δ΂͖Ͱͳ͍ݸਓͷଐੑʣ • ੑผɺਓछɺ೥ྸɺډॅ஍ɺफڭ FUD • อޢଐੑͱ૬ؔͷߴ͍ଐੑʹ΋஫ҙ ü ྫɿߪങཤྺˠੑผɺ༣ศ൪߸ˠډॅ஍ਓछ n ରࡦྫ • ಛ௃ྔʹόΠΞε͕ͳ͍͔ϞχλϦϯά • ಛఆͷάϧʔϓΛ୅ද͢ΔΑ͏ͳಛ௃ྔΛ࡟আ ʢόΠΞε͕͋ͬͯ΋ɺαʔϏεͷੑ࣭΍ऩӹੑͷ؍఺Ͱઆ໌ՄೳͳΒڐ༰͢Δͱ͍͏൑அ΋͋Γ͑Δ͕ʣ

Slide 35

Slide 35 text

ʖʖ ʖʖ AIリスクの整理 n ϦεΫͷղઆ ࢀߟɿʰ"*ϦεΫڭຊʱ 基本特性 主なAIリスク 主に誰にとって︖ 透明性 Transparency AIサービスの責任の所在が不明確になるリスク (その結果、安⼼して導⼊できない/使えない) ALL n ೉͍͠఺ • εςʔΫϗϧμʔͷଟ૚Խ ü ج൫ϞσϧΛ࡞ΔਓɺϑΝΠϯνϡʔχϯά͢Δਓɺ"*γεςϜΛఏڙ͢Δਓɺ"*γεςϜͷΤϯυϢʔβʔ • ๏੔උ͕ͳ͔ͳ͔ਐ·ͳ͍ n ରࡦྫ • ๏੔උ͕ਐ·ͳ͍಺͸ɺώϡʔϚϯΠϯβϧʔϓʢਓؒࢀՃܕʣͷઃܭͰ൑அɾ੹೚ऀΛ໌֬ʹ͢Δ • ֶशσʔλͷऩूɾอ؅ɾར༻ํ๏ɾ໨తɺϞσϧ΍αʔϏεͷ։ൃํ๏ʹؔ͢Δ৘ใΛ։ࣔ͢Δ

Slide 36

Slide 36 text

ʖʖ ʖʖ ΞδΣϯμ 1 ͸͡Ίʹ 2 AIϦεΫʹର͢Δ੓෎ͷಈ޲ 3 AIϦεΫͷ֓೦ɾ෼ྨ 4 ͓ΘΓʹ

Slide 37

Slide 37 text

ʖʖ ʖʖ 消化不良、もっと詳しく知りたい⽅はこちらで n ͥͻ͝ࢀՃ͍ͩ͘͞ʂ IUUQTJCNEFWFMPQFSDPOOQBTTDPNFWFOU

Slide 38

Slide 38 text

ʖʖ ʖʖ Ξϯέʔτʹ͝ڠྗ͍ͩ͘͞ IUUQTBQQTMJEPFWFOUPKBN$Q"O[R3.1Y)U'EG