Upgrade to Pro — share decks privately, control downloads, hide ads and more …

開発者が責任を 持って AI 技術を 活用するということ

hiroramos
February 16, 2025

開発者が責任を 持って AI 技術を 活用するということ

GenAI Bootcamp で発表させていただいた資料です。

hiroramos

February 16, 2025
Tweet

More Decks by hiroramos

Other Decks in Technology

Transcript

  1. 開発者が責任を持って AI技術を活用するということ 2018年ロイター通信で発表された記事 「アマゾンが AI採用打ち切り、『女性差別』の欠陥露呈で」 • Amazon が開発したAI採用システムにバイアスが存在 • システムは過去10年間の履歴書データを学習し、

    男性が多い職種に最適化 • その結果、女性応募者が評価されにくい傾向が発生 • この問題を受け、Amazon はAIシステムの運用を停止し、 再設計を開始 過去の実例 4 • AI技術を社会に実装することの影響力は非常に大きい • 適切な運用のためには倫理やガバナンスが重要 • 問題点に気づき、再設計を検討することができた
  2. 開発者が責任を持って AI技術を活用するということ HIROMI ITO 伊藤 博美 AWS Community Hero 某コンサルファームで

    コンサルタントをしています。 2014年以来、国内外問わず AWS ユーザーグループを中心としたテッ ク系のコミュニティファウンダー及び運 営、登壇など活動を 積極的に行っています。 5
  3. 開発者が責任を持って AI技術を活用するということ 透明性 公正性 AI がどのように意思決 定を行っているか、開発 者と利用者が理解できる ようにすること 説明責任義務

    01 02 03 AIがバイアスを排除し、 すべての人々に 公平な結果を提供するこ と AIが生み出した結果に 対して、誰が責任を持つ かを明確にすること AIガバナンスにおける基本的な原則 8
  4. 開発者が責任を持って AI技術を活用するということ <バイアスの問題への対応> 01: バイアスの問題 12 多様なデータの収集 一つのデータセットに依存せず、 多様な属性(性別、人種、年齢な ど)をカバーするデータを収集

    定期的な監視と評価 データに潜む偏りを検出し、AIが 偏った判断をしないよう定期的 に監視し、フィードバックを行う データの偏りが AI の判断に反映 多様なデータを収集、常に監視することが重要 バイアス管理・監視、性能向上のツールは多様。最適な組み合わせと、プロジェクトに合わせた選 定が鍵です。
  5. 開発者が責任を持って AI技術を活用するということ <説明可能性(Explainability)の確保> 02: 説明可能性( Explainability ) 13 透明性のあるモデル選択 ブラックボックス的なAIではなく、

    どのように決定が下されたのか が理解できるモデル(決定木や 回帰分析など)を選択 説明ツールの実装 ユーザーがAIの判断理由を理 解できるような説明機能やダッ シュボードを実装 ユーザーが AI の判断を理解できると信頼性が向上する 場合によって判断根拠を説明できることが求められる
  6. 開発者が責任を持って AI技術を活用するということ <継続的な監視と改善の検討> 03: 継続的な監視と改善 14 運用中のデータの追跡 運用環境でもAIのパフォーマン スをモニタリングし、データやア ルゴリズムの改善点を見つける

    定期的なアップデートと フィードバック 継続的に改善できるプロセスを 組み込み、定期的にAIを再訓練 ・調整 AI は動き出した後も常に改善が必要 定期的なパフォーマンスチェックやアルゴリズムの再評価 が不可欠
  7. 開発者が責任を持って AI技術を活用するということ <セキュリティ対策の実施> 04: セキュリティとプライバシー 15 データの暗号化 保存時および転送時に データを暗号化すること で、第三者からの不正ア

    クセスを防止 AI システムのデータや結果の適切な保護はユーザー信頼 構築の基盤となる セキュリティ違反やプライバシー侵害は企業や開発者の信 頼を損ねるリスクとなる アクセス制御 データやシステムへのア クセス権限を厳密に管理 し、必要な人のみがアク セスできるようにする プライバシー保護 個人情報を取り扱う場 合、プライバシー法や規 制(GDPRなど)に準拠し た処理を行う
  8. 開発者が責任を持って AI技術を活用するということ <プロンプトインジェクション対策の実施> プロンプトインジェクション対策 16 入力検証 不正な入力を排除するた めに厳格なチェックを行う 大規模言語モデル (LLM)をシステムに組み込むうえで対策

    が求められている プロンプトインジェクション攻撃対策を講じることでシステム の挙動を不正に変更されるリスクを減らす サンドボックス 外部操作を制限すること で安全な環境を確保 モデル監査 出力結果を定期的に確 認し不正な動作を早期に 発見 具体的な対策方法や必要性の有無はモデルによって大きく異なるため、特性に応じて対策を実施 する必要があります。 Appendix: 攻撃耐性強化より昨今対策が求められている例
  9. 開発者が責任を持って AI技術を活用するということ 開発者が考慮する開発プロセス 01 設計段階での ガバナンス統合 AI システムを設計する際に バイアスの回避・データの セキュリティ・透明性を早期に組

    み込むプロセス • バイアス除去: データ多様化、特徴量選択 • 透明性確保: XAI適用 02 モデル選定と 開発の進行管理 どのようなアルゴリズムを採用 するか、及び AI の学習プロセス の評価基準の設定 • 目的に最適なアルゴリズムを評価 • インサイトの透明性を維持 • モデルのパフォーマンスとバイア スを定期チェック 03 リリース前の 検証とテスト AI システムがデータガバナンス やセキュリティ基準に合致してい るか確認するプロセス • 実運用データでパフォーマンスを 検証 • セキュリティ・プライバシーリスクを テスト • バイアス・セキュリティリスクのスト レステストで想定外の挙動を防止 17
  10. 開発者が責任を持って AI技術を活用するということ AI ガバナンスの重要性 AIを活用するには、透明性、公正性、説明責任が不可 欠であることを常に意識しましょう。 開発者の役割 開発者はAIシステムの設計・運用において倫理的な配 慮と改善の責任を持つべきです。 社会への影響

    AI技術が社会に与える影響を理解し、その責任を果た しながら開発を進めることが求められます。 AI技術を責任を持って活用するために 開発者が意識すべきこと 19 AI技術を適切に活用し、社会に貢献するために開発者が持つべき意識と責任について考え、 今後の技術発展に役立てていきましょう
  11. CREDITS: This presentation template was created by Slidesgo, including icons

    by Flaticon and infographics & images by Freepik 開発者が責任を持って AI技術を活用するということ THANK YOU! Do you have any questions? LinkedIn: ../hiromi-ito-8917a6b7/ X: @hiro_baila https://hiroramos.uno/ 20