Upgrade to Pro — share decks privately, control downloads, hide ads and more …

近似のAIをめぐる法・ソフトローの動向

 近似のAIをめぐる法・ソフトローの動向

コウモリIT法務

September 29, 2024
Tweet

Other Decks in Technology

Transcript

  1. 生成AI登場前(概ね2010年~2020年) • ディープラーニングとGPUによる活用拡大。 • ただしAIの活用は企業の用途特化分野(生産ラインでの検査、画像診断な ど)に限定的。 • AIでできるのは「分類」と「予測」 • 分類:

    画像診断(医療、製造)、人物検知(防犯、事故防止)、顔認証 セキュリティ、会計システム(自動仕訳) etc • 予測:需要予測による在庫調整、使用率や環境情報などからの故障予測  etc
  2. 生成AI登場前(概ね2010年~2020年) • システム開発を外注することがほとんどの日本において、企業のAIに関し ては開発の委託、学習用データの取扱い、学習済みモデルの帰属や利用が 主な注目点。 経産省 契約ガイドラインなど https://www.meti.go.jp/policy/mono_info_service/connected_industries/sharing_and_util ization.html • 平成30年著作権法改正により著作物の利用に関しては機械学習の進展を

    促す。 https://www.bunka.go.jp/seisaku/chosakuken/hokaisei/h30_hokaisei/ • AI需要のある製造業を中心に、データを抱え込む動きが多かった。 平成30年不正競争防止法改正によりデータの共有・活用を促す。 https://www.meti.go.jp/shingikai/mono_info_service/sports_content/pdf/002_s01_00.pd f
  3. 生成AI登場前(概ね2010年~2020年) • 一部IT企業ではソフトウェア開発自動化に取り組んでいたが、生成AIとい うより「プログラム合成」。 NTTデータ「ZIPC Testerで加速するNTTデータのソフトウェア生産技術革新」(2014年10月10日) https://www.zipc.com/jp/assets/download/watchers/vol17-04.pdf ※画面項目や画面遷移などの設計情報を入力すると、ソースコードのひな形・設定ファイルを自動生成。 • そもそも論の「生成AI」の特異点は「学習アプローチ」と「適用の汎用

    性」。 • NTTデータ「大規模言語モデルを用いた自動プログラミング最新動向」(2021年10月25日) https://www.nttdata.com/jp/ja/data-insight/2021/1025/ 「GPT-3のアプローチは、このような従来のやり方とはまったく異なります。GPT-3はインターネット上にあるウェブコンテ ンツを大量に学習するのみで、プログラミング言語がもつ構文や意味を明示的に教える必要はありません。しかも、GPT-3が 生成するのは一般的なプログラミング言語を用いたプログラムであり、従来の自動プログラミング技術と比較すると破格とい えるのです。」
  4. 監視カメラAIはいち早く議論 • 監視されることへの気持ち悪さ(とイメージのしやすさ)。 • 総務省・経産省「カメラ利活用ガイドブックver1.0」(2017年1月31日) ※最新はVer3.0 • 渋谷書店万引対策共同プロジェクトは概ね反発無く受け入れられた(2020年)。 https://www.manboukikou.jp/shibuyaprj/about/ •

    JR東の監視カメラによる出所者検知は取りやめまで至った(2021年9月21日)。 • IDEAのAIカメラ設置は一部で物議(2023年7月)。 https://prtimes.jp/main/html/rd/p/000000056.000048250.html • 違いは、万引き対策は犯罪行為への対策という正当性がわかりやすいが、IDEAはマーケティング 目的となっているため?書店とJR東の違いは? • 目的・理由の正当性、社会的な受容性の見定めが必要。
  5. 主にアルゴリズムの透明性とバイアス問題が指摘される • アメリカにおいて、アルゴリズムが不透明(正確性が担保されず、検証可 能性もない)な再犯予測システムを用いて量刑判断されることは不公正で あり、憲法が保障するヂュープロセスの権利を侵害すると裁判が提起され る(state v. Loomis, 881 N.

    W. 2d 749(Wis. 2016) COMPAS事件) 。 黒人の再犯予測率が高く出ることも指摘。 • 警察が用いている犯罪予測システムには、訓練データの恣意的な選別があ るとの指摘もされている。 Police across the US are training crime-predicting AIs on falsified data(2019年2月13日) https://www.technologyreview.com/2019/02/13/137444/predictive-policing-algorithms- ai-crime-dirty-data/
  6. 主にアルゴリズムの透明性とバイアス問題が指摘される • State v, Loomis判決は、COMPASの正確についての検証、判決前調査報告書へ の注意記載などの制限をする限り、その利用はデュープロセス上の権利を侵害す るものではないと判断。(利用すること自体は合法) • 「最終的に人間である裁判官が量刑判断を行う限り、アルゴリズムによる予測評 価の利用・参照を認める」ということ自体は妥当。(医療プログラムと同じ)

    • 学習用データにバイアスがあると、AIもバイアスを持ってしまうことには注意が 必要(学習データ、限界・リスクの分析の説明が透明性となる)。 • しかし、「公正」とは?どのような検証をすれば公正といえるか? • アルゴリズムの透明性と結果の公正性は別の問題。そもそも裁判官の判断という 人間の思考そのものに透明性・公正性はあるのだろうか?
  7. 企業の対応 Microsoft • 責任あるAI コンセプト発表(2016年6月28日) Microsoft’s CEO explores how humans and A.I.

    can work together to solve society’s greatest challenges. https://slate.com/technology/2016/06/microsoft-ceo-satya-nadella-humans-and-a-i-can- work-together-to-solve-societys-challenges.html • AI原則発表(2018年1月17日) https://news.microsoft.com/ja-jp/2018/01/24/180117-future-computed-artificial- intelligence-role-society/ • 責任あるAI https://www.microsoft.com/ja-jp/ai/responsible-ai?activetab=pivot1%3aprimaryr6 • 顧客への誓約(2023年6月8日) https://blogs.microsoft.com/blog/2023/06/08/announcing-microsofts-ai-customer- commitments/
  8. 企業の対応 Microsoft • Microsoft の責任ある AI の基本原則 • 公平性 • 信頼性と安全性

    • プライバシーとセキュリティ • 包括性(多様な人々のニーズに対応できること) • 透明性(理解しやすさ) • アカウンタビリティ(説明責任)
  9. OECD AI原則 • Recommendation of the Council on Artificial Intelligence(2019年5月22日) https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

    • 1.1. 包括的な成長、持続可能な開発、幸福 • 1.2. 人間中心の諸価値と公正 • 1.3. 透明性と説明可能性 • 1.4. 堅牢性、セキュリティ、安全性 • 1.5. 説明責任 • (2024年5月3日改訂) https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
  10. EU AI規則(Artificial Intelligence Act) • 2021年規則案提出、2023年6月に欧州議会で可決。 • 提出案 LAYING DOWN

    HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 • 仮訳 https://www.soumu.go.jp/main_content/000826706.pdf • 2023年12月8日トリローグ最終合意、2026年上期施行見込み • 規則案 https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.html • 2024年5月21日成立 https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council- gives-final-green-light-to-the-first-worldwide-rules-on- ai/?utm_source=x.com&utm_medium=social&utm_campaign=20240521-ai&utm_content=visual-carousel
  11. EU AI規則が適用される「AI」とは • 3条(1) 「人工知能システム」(AI システム)とは、 a machine-based system designed

    to operate with varying levels of autonomy, that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments; (様々な自律性レベルで動作し、明示的または暗黙的な目的のため、受け取った入力か ら、物理環境またはヴァーチャル環境に影響を与えうる予測、コンテンツ、提案、また は意思決定のような出力を生成する方法を推論するよう設計された機械ベースシステム)
  12. EU AI規則が適用される「AI」とは • 3条(1) 「人工知能システム」(AI システム)とは、 (a)ディープラーニングを含む様々な方法を用いた教師あり、教師なし及び強化学習を含 む機械学習によるアプローチ (b) 知識表現、帰納(論理)プログラミング、知識ベース、推論及び演繹エンジン、

    (記号)推論及びエキスパートシステムを含む論理ベース及び知識ベースのアプローチ (c) 統計的アプローチ、ベイズ推定、検索及び最適化手法 の一つ又は複数をもって開発されたソフトウェアであって、人間が定めた一定の一連の 目的のために、これらが相互作用する環境に影響を与えるコンテンツ、予測、推奨又は 決定などのアウトプットを生成することができるものをいう。 • 一般的な「AI = ディープラーニング」を超える過去のAI技術を全部詰め込んだかのよ うな広範囲さ。
  13. EU AI規則の4分類 • リスクベースアプローチで分類、規制の強度を区別。 禁止AI(5条) サブリミナル技法 子ども・障害者の脆弱性を利用するもの 公的機関のソーシャルスコアリング 法執行目的の公開場所におけるリアルタイム遠 隔生態識別システム(例外あり)

    禁止 ハイリスクAI(6 条) 生態識別、インフラ管理、雇用関係 など リスクマネジメントシステムの構 築、データガバナンス、記録の保 持、情報提供、セキュリテ、自動 生成ログの維持、EU代理人の選 任ィetc 限定リスクAI(52 条) 自然人と相互作用することを意図さ れた AI システム(チャットシステム など?) AIを相手にしていること、AIによ り生成されたものを明らかにする 義務 ※ハイリスクAIの要件の適用推奨 最小リスクAI 規制なし
  14. AI原則の比較 Microsoft 日本 アメリカ 公平性 人間中心(基本的人権の非侵 害) アルゴリズムによる差別から の保護 包括性(多様な人々のニーズ

    に対応できること) 信頼性と安全性 プライバシーとセキュリティ プライバシー確保 セキュリティ確保 安全で効果的なシステム データのプライバシー 透明性(理解しやすさ) アカウンタビリティ(説明責 任) 公平性、説明責任及び透明性 イノベーション ユーザーへの通知と説明 構成競争確保 教育・リテラシー 人による代替手段、配慮、フ ォールバック
  15. 標準化 • 経産省委託報告書「令和3年度産業標準化推進事業委託費(戦略的国際標 準化加速事業:海外標準化動向の把握・分析)(2022年3月23日)P347 ~ https://www.meti.go.jp/meti_lib/report/2021FY/000161.pdf • 2021年3月、ISO/IEC TR 24029-1:2021

    (人工知能(AI)-ニューラ ルネットワークの堅牢性の評価ー第1部:概要) • 2021年5月、ISO/IEC TR 24030:2021(人口知能(AI)-ユースケース) • 2021年11月、ISO/IEC TR 24027:2021(人口知能(AI)-AIシステム とAI支援の意思決定におけるバイアス)
  16. AIと製造物責任 • 日本の製造物責任法ではソフトウェア自体はPL法の対象である製造物にならない。 ただしソフトウェアが組み込まれた機器であれば全体として製造物になりうる。 • 消費者のデジタル化への対応に関する検討会AIワーキンググループ(第4回)(2020年5月25日) https://www.caa.go.jp/policies/policy/consumer_policy/meeting_materials/assets/consumer_poli cy_cms101_200525_04.pdf • 欧州委員会では司令レベルで検討が進む。

    「Product Liability Directive(製造物責任に関する司令)改正案」 (2022年9月28日) https://single-market-economy.ec.europa.eu/document/3193da9a-cecb-44ad-9a9c- 7b6b23220bcd_en 「Proposal for anArtificial Intelligence Liability Directive(AIに関する開発事業者の民事責任に関す る司令案)」を発表(2022年9月28日) https://commission.europa.eu/document/f9ac0daf-baa3-4371-a760-810414ce4823_en
  17. 生成AIの登場 ◆音楽・音声生成系 • 2018年頃、Amper Music • AI美空ひばり(2019年)、おしゃべりひろゆきメーカー(2023年) • ※片寄晴弘「音楽生成とAI」(2004年1月)https://www.jstage.jst.go.jp/article/jjsai/19/1/19_21/_pdf ◆画像生成系

    • 2021年1月 DALL-Eリリース • 2022年7月13日 Midjourneyリリース ◆自然言語生成系 • 2021年7月 AIのべりすとリリース • 2022年11月30日 ChatGPTリリース
  18. 悪用事例:ディープフェイク • AIを用いたオバマ大統領のフェイク動画が物議。 • You Won’t Believe What Obama Says

    In This Video! ࣥ(2018年4月18日) https://youtu.be/cQ54GDm1eL0 • 湯淺 墾道「ディープフェイクに関する各国の法規制の動向」(2022年1 月6日) https://jilis.org/report/2022/jilisreport-vol4no1.pdf
  19. 生成系人工知能サービス管理暫定規則 • 生成系人工知能サービスに対する法令遵守義務 • 社会主義的価値観の堅持(反政府的な出力の禁止) • 学習における差別の発生防止措置 • 知的財産権、商業道路区の尊重、営業秘密の保持、プラットフォーマーの独占的不正競争行為の禁 止

    • 肖像権、名誉、プライバシーの非侵害 • 透明性の向上、生成コンテンツの正確性向上措置 • 世論系勢力・社会動員能力を有する生成系人工知能サービス(とは?)を 提供する場合は、安全評価を実施し、当局に届出が必要。
  20. 生成AI提供者に対する訴訟提起(アメリカ) • 2023年1月:著作権侵害訴訟(Andersen v. Stability AI Ltd、Midjourney Inc、DeviantArt Inc) •

    2023年2月:著作権侵害訴訟(Getty Images v. Stability AI) • 2023年6月:プライバシー侵害訴訟(P.M. v. OpenAI) • 2023年7月:著作権侵害訴訟(J.L. v. Alphabet) • Open Legal Community「増えつつあるAI関連訴訟:米国におけるジェネレーティブAI訴訟の最 新動向」(2023年9月24日) https://openlegalcommunity.com/ai-related-litigation-current-state/ • JETRO「生成系 AI に対する著作権侵害等の訴訟の動き」(2023年7月14日) https://www.jetro.go.jp/ext_images/_Ipnews/us/2023/20230714.pdf
  21. 生成AI提供者に対する訴訟提起(アメリカ) • Andersen v. Stability AI Ltd、Midjourney Inc、DeviantArt Inc 2023

    U.S. Dist. LEXIS 194324(2023/11/27時点) • 原告の画像を機械学習に際して無断複製したことによる侵害→継続審理 • 出力画像(二次的著作物と主張)が原告の著作権を侵害するか→類似の主張不十分のため却下 • 著作権登録のない原告2名→原告適格なし • Thomson Reuters Enter. Ctr. GmbH v. Ross Intel. Inc., 2023 U.S. Dist. LEXIS 170155
  22. 著作権の観点 日本政府の動き • 内閣府・文化庁「AIと著作権の関係等について」(2023年5月) https://www8.cao.go.jp/cstp/ai/ai_team/3kai/shiryo.pdf AI開発/学習段階は著作権法30条の4、生成・利用段階は通常の著作権侵害判断と同様(侵害かど うかは都度判断) • 文化庁「AIと著作権(2023年6月)」 https://www.bunka.go.jp/seisaku/chosakuken/pdf/93903601_01.p df

    • 文化審議会著作権分科会法制度小委員会(2023年7月26日~) 第1回、第2回、第3回、第4回、第6回、第7回 第5回(2023年12月20日)、第6回(2024年1月15日)、パブコメを経 て「AIと著作権に関する考え方について」が2024年3月15日公表。
  23. 生成AI提供者の対応 • Google、Adobe、Microsoftは提供する生成AIに関連して著作権侵害で訴 えられた場合の損害を補償すると発表。 • Microsoft(2023年9月7日): https://blogs.microsoft.com/on-the-issues/2023/09/07/copilot- copyright-commitment-ai-legal-concerns/ • Google(2023年10月13日):

    https://cloud.google.com/blog/products/ai-machine- learning/protecting-customers-with-generative-ai-indemnification?hl=en • Adobe(2023年9月13日): https://www.adobe.com/jp/news- room/news/202309/20230913_commercial-release-of-gen-ai.html • プライバシー侵害の場合は?
  24. 特許ではAIの発明者性を否定した日本の司法判断が出る • 東京地判令和6年5月16日 • 原告は発明者の氏名にダバス(DABUS)と記載した特許出願に対し、補正命令 に応じなかったことから出願却下処分を受け、審査請求も棄却されたことから取 消訴訟を提起。 裁判所は、 • 知的財産基本法2条1項は知的財産について「人間の創作的活用により生み出されるもの」と

    定義していること • 特許法66条、29条1項は、「発明をした者」が特許を受けることができるとしており、AIは (自然人ではなく)法人格も有さないから、「発明をした者」は、特許を受ける権利の帰属主 体にはなり得ないAIではなく、自然人をいうものと解するのが相当であること を理由として、原告の主張を退けた。
  25. AI生成物が氾濫することに関して • これらは現状、違法や規約違反ではない。また生成AIを用いていること自体がクリエー ター性を否定するものではない(優れた脚本やゲーム性を作れるがイラストは自作でき ない者にチャンスを与える側面はある)。 • では何を批判すべきか?排除すべき基準は何か? • Pixiv「AI生成に関わる問題と、対応についてご報告」(2023年5月9日)では、 問題①

    特定のクリエイターが不利益を被ること • 問題② プログラムなどで、クリエイターの作品が不当に収集されること • 問題③ AI生成作品を見たくないユーザーにも、AI生成作品が多く表示されること https://www.pixiv.net/info.php?id=9524 • 「見たくない」という需要側とのアンマッチングも重要。
  26. AIと規制法の関係 • AIによる診断サービスと医師法における医行為の問題。 • 人工知能(AI)を用いた診断、治療等の支援を行うプログラムの利用と医師法第 17 条の規定との 関係について(2018年12月19日) https://www.mhlw.go.jp/content/10601000/000468150.pdf •

    契約書審査サービスと弁護士法における非弁行為の問題。 • 法務省「AI等を用いた契約書等関連業務支援サービスの提供と弁護士法第 72 条との関係につい て」(2023年8月) https://www.moj.go.jp/content/001400675.pdf
  27. Google、Amazon、Meta、MicrosoftなどのAI適正開発原則 • 自発的な取り決め。 • FACT SHEET: Biden- Harris Administration Secures

    Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI(2023年7月21日) https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet- biden-harris-administration-secures-voluntary-commitments-from-leading-artificial- intelligence-companies-to-manage-the-risks-posed-by-ai/ • 公開前の安全性確保 • 信頼性のあるセキュリティが最優先 • 信頼獲得
  28. 国際的なAI原則(広島AIプロセス) • International Draft Guiding Principles for Organizations Developing Advanced

    AI systems(2023年10月11日) https://digital-strategy.ec.europa.eu/en/library/international-draft-guiding-principles-organizations-developing-advanced-ai-systems 1. AIシステムの開発、導入、市場への配置において、リスクの特定、評価、軽減のための適切な対策を講じる。 2. 導入後、市場配置後に脆弱性の特定と軽減、必要な場合には誤用の事例とパターンの対処を行う。 3. 高度なAIシステムの能力、制約、適切なおよび不適切な使用の領域を公に報告し、透明性を確保するためサポートする。 4. 高度なAIシステムを開発する組織間で、業界、政府、市民社会、学術界を含む組織間でインシデントの情報共有と報告に向けた責任ある取り組み を進める。 5. リスクベースのアプローチに基づくAIガバナンスおよびリスク管理ポリシーの開発、実施、公開。特に高度なAIシステムを開発する組織に対する プライバシーポリシーや軽減策を含む。 6. AIライフサイクル全体にわたる堅牢なセキュリティコントロール、物理セキュリティ、サイバーセキュリティ、内部脅威対策の導入。 7. ユーザーがAI生成コンテンツを識別できるように、信頼性のあるコンテンツ認証と出典情報のメカニズム、ウォーターマーキングなどの技術の開 発と導入。 8. 社会的、安全、セキュリティリスクの軽減に向けた研究を優先し、有効な軽減策への投資を優先する。 9. 高度なAIシステムの開発を進め、気候危機、国際的な健康、教育など、世界の最大の課題に取り組む。 10. 国際的な技術規格の開発と、適切な場合には採用を進める。 11. 適切なデータ入力制御と監査の実施。
  29. 英国フロンティアAIに関する報告書 Frontier AI: capabilities and risks – discussion paper(2023年10月25日) https://www.gov.uk/government/publications/frontier-ai-capabilities-and-

    risks-discussion-paper frontier AI For the purposes of the Summit we define “frontier AI” as highly capable general-purpose AI models that can perform a wide variety of tasks and match or exceed the capabilities present in today’s most advanced models (see Figure 1). (広範なタスクを実行可能で、現在最も進んだ人工知能(AI)のモデルが有する 能力に匹敵、またはそれを超える能力を持つ高性能な汎用型AIモデル)
  30. 高度な AI システムを開発する組織向けの広島プロセス国際指針 高度な AI システムを開発する組織向けの広島プロセス国際行動規範 1. AI ライフサイクル全体にわたるリスクを特定、評価、軽減するために、高度な AI

    システムの開発全体を通じて、 その導入前及び市場投入前も含め、適切な措置を講じる 2. 市場投入を含む導入後、脆弱性、及び必要に応じて悪用されたインシデントやパターンを特定し、緩和する 3. 高度な AI システムの能力、限界、適切・不適切な使用領域を公表し、十分な透明性の確保を支援することで、アカ ウンタビリティの向上に貢献する 4. 産業界、政府、市民社会、学界を含む、高度な AI システムを開発する組織間での責任ある情報共有とインシデント の報告に向けて取り組む 5. 特に高度な AI システム開発者に向けた、個人情報保護方針及び緩和策を含む、リスクベースのアプローチに基づく AI ガバナンス及びリスク管理方針を策定し、実施し、開示する 6. AI のライフサイクル全体にわたり、物理的セキュリティ、サイバーセキュリティ、内部脅威に対する安全対策を含 む、強固なセキュリティ管理に投資し、実施する 7. 技術的に可能な場合は、電子透かしやその他の技術等、ユーザーが AI が生成したコンテンツを識別できるようにす るための、信頼できるコンテンツ認証及び来歴のメカニズムを開発し、導入する 8. 社会的、安全、セキュリティ上のリスクを軽減するための研究を優先し、効果的な軽減策への投資を優先する 9. 世界の最大の課題、特に気候危機、世界保健、教育等(ただしこれらに限定されない)に対処するため、高度な AI システムの開発を優先する 10. 国際的な技術規格の開発を推進し、適切な場合にはその採用を推進する 11. 適切なデータインプット対策を実施し、個人データ及び知的財産を保護する
  31. アメリカ大統領令2023年10月30日 FACT SHEET: President Biden Issues Executive Order on Safe,

    Secure, and Trustworthy Artificial Intelligence(2023年10月30日) https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive- order-on-safe-secure-and-trustworthy-artificial-intelligence/ 1. 安全とセキュリティの新基準作成 2. プライバシーの保護 3. 公平性と市民権の確保 4. 消費者、患者、教育の保護 5. 労働者の支援 6. イノベーションと競争の促進 7. 国際的なAIリーダーシップの推進 8. 政府によるAIの責任ある効果的な利用の保証 長島・大野・常松法律事務所「AIに関する米国大統領令の公表と日本企業への影響」 https://www.noandt.com/wp-content/uploads/2023/11/technology_no43_1.pdf 福岡真之介「AIに関するアメリカの大統領命令の解説」 https://note.com/shin_fukuoka/n/n1006e8350805?sub_rt=share_pb 大統領府 主要なAI対策状況(2024年4月29日) https://www.whitehouse.gov/briefing-room/statements-releases/2024/04/29/biden-harris-administration-announces-key-ai- actions-180-days-following-president-bidens-landmark-executive-order/
  32. CISA Roadmap for Artificial Intelligence セキュリティ向上のための人工知能 (AI) の利用促進や、重要インフラ組織への AI 導入支援に関す

    る取り組みを詳述する、初のロードマップ(2023年11月14日) https://www.cisa.gov/resources-tools/resources/roadmap-ai 5つの努力ライン 1. Responsibly use AI to support our mission. 2. Assure AI systems. 3. Protect critical infrastructure from malicious use of AI. 4. Collaborate and communicate on key AI efforts with the interagency, international partners, and the public. 5. Expand AI expertise in our workforce.
  33. 内閣府NISC「セキュア AI システム開発ガイドライン」 セキュア AI システム開発ガイドラインについて(2023年11月28日) https://www.nisc.go.jp/pdf/press/press_Guidelines_for_Secure_AI_ System_Development.pdf 本件文書は広島 AI

    プロセスを補完するものであり、参考文書として、高度な AI システムを開発す る組織向けの広島プロセス国際指針及び国際行動規範が記載されて います。 セキュアな AI システム開発のためのガイドライン(仮訳) https://www.nisc.go.jp/pdf/policy/kokusai/Provisional_Translation_J P_Guidelines_for_Secure_AI_System_Development.pdf
  34. Data Act(EUデータ法) 2023年12月22日EU官報掲載、2025年9月上旬施行 https://eur-lex.europa.eu/legal- content/EN/TXT/?uri=OJ:L_202302854 • ユーザが生み出したデータはユーザのもの。アクセスも共有もできるす る必要がある。 • 最終的には、ユーザ自身がそのデータにアクセスし、共有できるように

    する必要がある • どんなデータを生み出しているのか、ユーザへの通知が必要 →仕様にかかるところで、開発や従前の事業者がデータを独占して活用す るようなビジネスモデルそのものに影響
  35. カリフォルニア州でAI関連法が立て続けに成立 The California Artificial Intelligence Transparency Act (CAITA)が発効。大規模 な生成 AI

    企業に AI 生成コンテンツにラベルを付けることを義務付け。(2024 年9月19日) ほか7つ。 tomo「カリフォルニア州のAI規制(2024年9月)」 https://note.com/tomo_legal/n/nf74410b6bc97