$30 off During Our Annual Pro Sale. View Details »

米国心理学会のガイダンスに学ぶコーチとしての倫理的なAI活用

 米国心理学会のガイダンスに学ぶコーチとしての倫理的なAI活用

コーチング心理学講座実行委員会オンラインセミナー(2025年12月11日)、米国心理学会のガイダンスに学ぶコーチとしての倫理的なAI活用―クライアントがChatGpTを安全に使えるようにサポートできていますか?話題提供部分の録画です。
※ディスカッション、質疑応答部分は含まれていません。

More Decks by 一般社団法人PsyAIコンサルティング

Other Decks in Business

Transcript

  1. 事前案内 • 生成AI(LLM: large language model)は、要約・壁打ち・検索の起点として便 利な一方、誤情報やバイアス、プライバシーのリスクも伴います。本セミナーは、米国 心理学会(APA)が公表した "Ethical Guidance

    for AI in the Professional Practice of Health Service Psychology" と "Use of generative AI chatbots and wellness applications for mental health" を手がかりに、 コーチング現場での安全・公正・誠実な使い方について考えます。 • 1つ目のガイダンスが示す6つの柱 ①透明性と同意、②バイアス対策と公平性、③ データ保護とセキュリティ、④正確性と誤情報リスク、⑤人の最終判断、⑥責任と法 的留意をベースに、特にChatGPTの相談用途での利用を想定した良い・悪いプロ ンプトや出力の "三点検"(事実検証・バイアス点検・責任の所在)、クライアントへ の適切な説明内容を確認します。 • 2つ目の生成AI活用の方針では、8つの推奨事項が示されています。 • 時間が許せば 対人支援における倫理的なAI活用チェックリスト の簡単な解説も 行います。
  2. 講師紹介 コーチング心理学講座実行委員会 3 木内 敬太(きうち けいた) • 修士(心理学)、博士(医学) • 公認心理師、臨床心理士、

    キャリアコンサルタント • 役職 ◦ 一般社団法人PsyAIコンサルティング 代表 ◦ 株式会社Sabab LLMリサーチャー • 関連文献 ◦ 「コーチング心理学概論 第2版」(ナカニシヤ出版)・共編著 ◦ Kiuchi et al. (2025a). Artificial Intelligence Ethics in Psychological Support Services: A Scoping Review with Systematic Literature Search. ◦ Kiuchi et al. (2025b). Evaluating AI Counseling in Japanese: Counselor, Client, and Evaluator Roles Assessed by Motivational Interviewing Criteria. Sabab App Store (iPhone) 2025/12/11
  3. 内容 2025/12/11 コーチング心理学講座実行委員会 4 • 話題提供 ◦ “保健サービス心理学の専門的実践におけるAIの倫理ガイダンス” (APA, 2025a)

    ◦ “生成AIチャットボット及びウェルネス・アプリのメンタルヘルスへの活用” (APA, 2025b) ◦ 心理学系AIの倫理的活用チェックリスト(Kiuchi et al., 2025a) • ディスカッション ◦ クライアントのChatGPT利用で想定される問題・課題・リスクは? ◦ コーチとして、ChatGPTとの共生に向けて取り組むべき方策は?
  4. 保健サービス心理学の専門的実践におけるAIの倫理ガイダンス コーチング心理学講座実行委員会 5 • 4ページの概要説明 ◦ APA倫理規定のような「強制力のある基準」ではない ◦ 参考としての「ガイダンス」 •

    内容 ① 透明性とインフォームド・コンセント ② バイアス低減と公正の促進 ③ データプライバシーとセキュリティ ④ 精度・妥当性と誤情報のリスクへの対処 ⑤ 人間による監督と専門的判断 ⑥ 法的責任と倫理的責任 2025/12/11
  5. AIの倫理ガイダンス6項目(前半) コーチング心理学講座実行委員会 6 1. 透明性とインフォームド・コンセント ◦ AIの利用目的・内容・ケアへの関与の程度を、文化的・言語的に適切な形でクライアントや関係者 に開示し、インフォームド・コンセントを得る ◦ AIの役割・限界・リスクと代替手段を説明し、クライアントがAI介入を選択・拒否・途中で中止できる

    権利を明確にする 2. バイアス低減と公正の促進 ◦ AIがどのデータで訓練・検証されているかを確認し、マイノリティや地域差など多様な生活世界が 十分に反映されているかを評価する必要がある ◦ AIツールが既存の医療・メンタルヘルス格差を悪化させないように、代表性の高いデータセット構築 にも積極的に関与する 3. データプライバシーとセキュリティ ◦ 保健データのようなセンシティブな情報を扱うAIツールについて、HIPAA(米国の医療情報保護 法)や州法など関連法令への適合性とセキュリティ水準を確認し、懸念があれば利用を避けたり中 止したりする ◦ データの保存方法・共有の有無・匿名化後の二次利用の実態を把握し、その概要をクライアントに 説明する 2025/12/11
  6. AIの倫理ガイダンス6項目(後半) コーチング心理学講座実行委員会 7 4. 精度・妥当性と誤情報のリスクへの対処 ◦ AIツールは臨床導入前に十分に検証されるべきであり、AIの出力を鵜呑みにせず専門家 として批判的に評価する ◦ 開発者が示す検証データやパフォーマンス指標を確認し、妥当性が不明確または誤情報

    のリスクが高いツールの使用は中止する 5. 人間による監督と専門的判断 ◦ AIは「決定者」ではなく支援ツールであり、最終的な判断責任は常に人間にある ◦ human-in-the-loop(人間が意思決定プロセスに組み込まれている状態)をあらかじめ 設計し、研究エビデンスや専門的基準に照らしてAIの提案を採用・修正・却下する 6. 法的責任と倫理的責任 ◦ AI関連の法的責任(賠償責任)はまだ発展途上だが、検証の不十分なAIに安易に依存す ることは過失と見なされる可能性がある ◦ AIの選定・監督に伴う法的・倫理的リスクを理解し、継続教育などを通じて知識とコンピテ ンス(専門技能)を更新し続ける必要がある 2025/12/11
  7. AIの倫理ガイダンスを踏まえたChatGPT(GPT-5.1)利用 コーチング心理学講座実行委員会 8 • 確認事項 ◦ 【訓練データへの多様性の反映】 13言語での評価。バイアス評価も実施 ◦ 【データの二次利用】

    個人向けはオプトアウト可。設定必要。ビジネス版は不使用 ◦ 【HIPAAの準拠状況】 ビジネスプランで特別契約可。個人情報は送らない ◦ 【専門家による評価】 医療保健の専門家評価あり。ただし、専門的な利用はNG ◦ 【誤情報のリスク】 検索は必須。少ない方だが、ないとは言えない • 使用時の注意 ◦ 透明性とインフォームド・コンセントでは、AIと人間コーチの役割を明確に ◦ AIは支援ツール。意思決定はAIにゆだねずに自分で ◦ 必要に応じてコーチにもAIとのやり取りを共有(任意) ◦ コーチも依存すると過失責任を問われる可能性がある。AIの継続学習が必須 2025/12/11
  8. 生成AIチャットボット及びウェルネス・アプリのメンタルヘルスへの活用 コーチング心理学講座実行委員会 9 • 16ページに及ぶ詳細な内容 ◦ 現時点のエビデンスと専門家の合意を踏まえた注意喚起と政策提言 ◦ 一般消費者、保護者・教育者、実務家・研究者、AI開発企業、 政策立案者など、広いステークホルダー向け

    ◦ 医療機器は対象外 • 内容 ① AIチャットボットやウェルネスアプリを「心理療法の代わり」にしてはいけない ② AIとの「不健康な関係・依存」を防ぐ ③ プライバシーとデータ保護を最優先に ④ 誤情報・バイアス・虚偽の効果に対する防御 ⑤ 子供・若者・脆弱な人々に対する特別な保護 ⑥ 包括的なAI・デジタルリテラシー教育の実施 ⑦ 厳密で透明性の高い科学研究を優先的に資金支援する ⑧ AIへの期待を、メンタルヘルスの構造的課題の解決より優先させてはならない 2025/12/11
  9. 生成AI・ウェルネスアプリに関する推奨事項8項目(1/3) コーチング心理学講座実行委員会 10 1. AIチャットボットやウェルネスアプリを「心理療法の代わり」にしてはいけない ◦ AIチャットボットやウェルネスアプリは、あくまで専門家による心理療法の「補助」であり、診断や治療その ものを代替するものではない ◦ AIとの擬似的な治療関係や誤情報・バイアス、不十分な危機対応などのリスクがあるため、利用者・保

    護者・実務家・開発者・政策担当者・研究者がそれぞれの立場で限界と安全策を押さえる必要がある 2. AIとの「不健康な関係・依存」を防ぐ ◦ 人はチャットボットを人間のように感じやすく、同調的で褒めてくれる設計も相まって、AIを「唯一の理解 者」とみなす情緒的依存や、人間関係からのひきこもりが起こりうる ◦ 利用者は使用時間や人間関係への影響を自己点検し、開発者は「これはAIです」の明示や休憩ナッジ、 有害会話の遮断など依存を弱める設計を行い、実務家は「AIは練習用ツールで、本番は対人」と患者に 共有することが推奨される 3. プライバシーとデータ保護を最優先に ◦ メンタルヘルスに関する打ち明け話は、プロファイル(特性分析)や広告目的に転用されるおそれがあり、 プライバシー侵害のリスクが高いと警告されている ◦ 利用者は特定可能情報の入力を避け、設定でデータ共有を制限・削除し、開発者と政策側は「最初から 安全な設定(Safe-by-Default)」やデータ利用の透明化など、強力な保護枠組みを整えることが求 められる 2025/12/11
  10. 生成AI・ウェルネスアプリに関する推奨事項8項目(2/3) コーチング心理学講座実行委員会 11 4. 誤情報・バイアス・虚偽の効果に対する防御 ◦ 西洋・英語圏中心のデータで学習したAIは、人種・文化・ジェンダーなどのバイアスを引き継ぎやすく、さらに 「ユーザに迎合する」性質と組み合わさることで、誤った信念や極端な態度を強化してしまう可能性がある ◦ 利用者と実務家には「AIは診断・治療ができず、もっともらしい嘘(ハルシネーション)を出す」ことへの理解と

    教育が求められ、開発者・政策担当者・研究者には専門家詐称の禁止、第三者による安全性・バイアス評価、 標準化された検証枠組みの構築が求められる 5. 子供・若者・脆弱な人々に対する特別な保護 ◦ 思春期の若者、不安・強迫症状・妄想傾向のある人、孤立している人、支援資源の少ない地域の人などは、AI との関わりで既存の脆弱性が増幅され、AIが「唯一の相談相手」になりやすい ◦ 実務家は、AI利用が症状悪化に結びついていないかを継続的にチェックし、開発者・政策担当者・研究者は、 当事者参加型の設計、危機介入プロトコル、年齢に応じた安全評価、脆弱集団に焦点を当てた研究を整備す る必要がある 6. 包括的なAI・デジタルリテラシー教育の実施 ◦ 多くのツールはメンタルヘルス用に設計されておらず、「AIは意味を理解しているのではなく、次に来るべき言 葉を予測している」などの仕組みや限界を、学校・家庭・医療現場で共有することが重要 ◦ 保護者・教育者・実務家・開発者・政策担当者・研究者がそれぞれの場で、利点とリスク、データプライバシー、 誤情報・バイアス、エンゲージメントを高める設計の意図などについて、利用者が判断できるように教育するこ とが推奨される 2025/12/11
  11. 生成AI・ウェルネスアプリに関する推奨事項8項目(3/3) コーチング心理学講座実行委員会 12 7. 厳密で透明性の高い科学研究を優先的に資金支援する ◦ 現状の研究は小規模・短期・方法論的な弱さが目立ち、AIチャットボットやアプリの効果と安全性につい て確かな結論が出せる水準には達していない ◦ 今後は、ランダム化比較試験や縦断研究、多様で脆弱な集団を含んだ研究、そして安全性・公平性・文

    化的妥当性を評価する統一フレームワークを整え、開発企業もデータへのアクセスを研究者に開くべき 8. AIへの期待を、メンタルヘルスの構造的課題の解決より優先させてはならない ◦ メンタルヘルス危機の根本には、人材不足・アクセス格差・保険や事務負担などの構造的問題があり、AI を安易な近道として「人間のケアシステム」への投資を後回しにしてはならない ◦ AIは診断補助や事務軽減などで専門職を支える「道具」として慎重に統合すべきであり、同時に、専門 職の養成・待遇改善やアクセスの公平化など、人間のケア基盤への投資と政策的支援を優先する必要 がある 2025/12/11
  12. 推奨事項8項目を踏まえたChatGPT(GPT-5.1)利用 コーチング心理学講座実行委員会 13 • AIは意味を理解しているのではなく、「次に来そうな言葉」を予測しているに過ぎな い。あくまで「補助ツール」として利用 • 情緒的にAIへ依存しすぎると、人間関係からのひきこもりが進むおそれ • 子供やメンタル不調の方など、脆弱性の高い人には依存リスクが特に高い

    • AIの価値観には偏りがあり、ユーザの偏った価値観を強化しがち。 加えて、エンゲージメントを高めるよう設計されている場合もある • 入力したデータは特性分析や広告に使われうるため、特定されやすい情報は避け、 二次利用を拒否する設定も確認 • 専門的な内容には限界があり、もっともらしく誤った情報を出すことがあるため、 重要な判断は専門家の確認が必要 • 専門家・企業による効果と安全性の検証を進めつつ、人間のケア基盤への投資を 優先する必要がある 2025/12/11
  13. 心理学系AIの倫理的活用のためのチェックリスト(Kiuchi et al., 2025a) コーチング心理学講座実行委員会 15 1. 個人の権利と尊厳 a.プライバシーとデータ管理 /

    b.人間の尊厳と自律 / c.インフォームド・コンセント / d.アクセシビリティと包摂性 2. 技術的責任と安全性 e.安全とセキュリティ / f.透明性と説明責任 / g.バイアス対策と公平性 / h.倫理的設計と開発 / i.リスク評価と危害防止 3. AIと人間の相互理解 j.コミュニケーションと関係性 / k.AIの信頼性と責任 / l.AIの意識と道徳的判断 4. 社会的影響と責任 m.AI教育とリテラシー / n.文化的感受性と多様性 / o.社会的影響 5. 専門職倫理 p.ケアの質と有効性 / q.商業的側面と利益相反 / r.誠実さと利用者の操作の回避 / s.プロフェッショナリズム / t.規制とガイドライン 2025/12/11
  14. APAの提言に不足している観点:組織的AIガバナンスの重要性 コーチング心理学講座実行委員会 16 • 運用レベルのガバナンス ◦ プライバシーポリシーの定期更新/漏えい時の報告・開示の意思決定プロセスをログとして残し、第三者が検証できる形で 公開する • アクセシビリティとデジタルディバイド対策

    ◦ アクセシビリティ機能の定期評価と改善。多様な利用者・組織要因を考慮して、格差縮小まで含めて設計する • AI意識・道徳主体性の明示 ◦ 「AIには意識も道徳的主体性もない」ことをクライアントに確認 • 環境・サステナビリティ ◦ エネルギー消費・資源利用・廃棄物まで含めた環境負荷を評価する • 商業性・利害相反の管理 ◦ 最小限データ収集・データ販売や第三者提供の透明性、利益相反の定期レビューを行い、ビジネスモデル由来のリスクを明示 • AI―クライアント―専門職の「三者関係」 ◦ AI・クライアント・実務家の三者関係を前提に、新しい実践モデルを開発する • 継続的な倫理運用と規制関与 ◦ 開発〜運用の全フェーズでの倫理評価・結果公開・外部専門家からのフィードバックを得る。規制枠組みへの積極参加や国際 ガイドラインを継続的にフォローする • 技術的セキュリティ対策の具体列挙 ◦ 暗号化・認証・ファイアウォール・マルウェア対策など、技術レベルの確認を行う 2025/12/11