Upgrade to Pro — share decks privately, control downloads, hide ads and more …

論文紹介/5 papers at 75. Bias and Ethics (CHI 2022)

論文紹介/5 papers at 75. Bias and Ethics (CHI 2022)

CHI勉強会2022、75. Bias and Ethicsセッションの5本の論文紹介です。
各論文1枚・全体で3分の発表時間のため、かなり簡略化された資料となっています。
https://pgl.jp/seminars/chi2022/sessions/629c62a3a7ad45002cacafbf

Cb3c74960f845f8309702eb95f7e2f2a?s=128

kuri8ive

June 24, 2022
Tweet

More Decks by kuri8ive

Other Decks in Research

Transcript

  1. 75. Bias and Ethics LINE株式会社 栗本 真太郎(@kuri8ive) ACM Japan SIGCHI

    Chapter CHI勉強会2022(論文紹介) 2022年6月25日
  2. AIが代替しようとする、人間系システムでの経験が信頼の測定値を容易に混乱させる →AIへの認識の構成要素を国ごとに横並びで比較することは極めて慎重に行うべき 2 "Because AI is 100% right and safe":

    User Attitudes and Sources of AI Authority in India 背景 手法 結果 AIの受容度は曝露量で 形成される可能性 ネット利用の歴史が 浅い社会の人々には 一般化できない可能性 中でもインドに焦点 "AIの権威"を証拠なく 行動に影響を与える力 と定義 AIの判断への意見等を 半構造化インタビュー により収集 アンケートにより AIによる成果の 受容度を測定 79%が判断を受け入れ 95%が性能を信頼 「コネや賄賂なしで 審査してくれる」 AIの権威は制度的、 インフラ的、社会的な 要因からの影響大 (1/5)
  3. プライバシー制御ができず不快感があることを知覚していても使用の躊躇まで至らない →"搾取"の状況を変えるため、不快感常態化への対処法が必要 3 Still Creepy After All These Years: The

    Normalization of Affective Discomfort in App Use 背景 手法 結果 アプリのデータ利用を 不気味と感じる人は 多いが使ってはいる RQ1: プライバシー制御 の認知は利用意図に どう影響する? RQ2: リテラシーや 不快感は利用意図に どう影響する? 音楽アプリの使用法を 説明するシナリオ ①非明示データ収集 ②勝手な他アプリ投稿 ③盗聴に基づく広告 × プライバシー制御の 有無による計6パターン 知覚や知識の程度を計測 ①②制御の有無や 不快感に関係なく 高リテラシーかつ 利用が現実的と 感じるほど継続 ③他2設定より弱い 不快感の利用阻止効果 (2/5)
  4. 専門家の自律性が低いと、ネガティブな結果が出た場合にAIがスケープゴートになる危険 →ユーザーの期待や傾向を理解し、不要なバイアスを引き起こさないシステム設計が必要 4 背景 手法 結果 AIの利用範囲拡大 アルゴリズム嫌悪は 領域とタスクに依存 AIによる倫理的な

    意思決定はどう責任を 負わされるか 救助や国防のドローン シミュレーションで検証 RQ1: 人とAIへの信頼は どう比較されるか RQ2: 自律性のレベルが 異なる(HITL / HOTL)時 責任はどう帰属するか RQ3: 人とAIの助言は どう比較されるか 人はAIより道徳的だが 能力は低い エンジニアの責任は HITLでは専門家が先に HOTLではAIが先に 提示された場合に重い AIの推薦や決定は 人より受け入れられる Capable but Amoral? Comparing AI and Human Expert Collaboration in Ethical Decision Making (3/5)
  5. 遡及的のみならず将来的なバイアス軽減が可能であることを確認 →リアルタイムでバイアスを軽減しながらの評価を実現 5 背景 手法 結果 逐次的な意思決定は アンカリング効果の 影響を受けてしまう 入試や製品レビューなど

    様々な場で逐次的な 意思決定は行われる バイアスを軽減し 意思決定の公平性を 高められないか? 入試と製品レビューで バイアスがあるか分析 アンカリング状態を捕捉 する確率モデルの提案 提示アイテムを 動的に決定する 強化学習モデルの提案 バイアスの傾向を確認 精度向上と バイアス軽減の両立 AI-Moderated Decision-Making: Capturing and Balancing Anchoring Bias in Sequential Decision Tasks (4/5)
  6. スクリーニング判定精度はASFTの方が優れているが、児童虐待防止まで考えるとどうか? →予測精度の定義が特に重要 6 背景 手法 結果 人とAIの協調は 単独の場合よりも 公平性と有効性を 改善する可能性が実証

    一方、差別的な決定を 悪化させる例も存在 児童虐待調査の文脈では どうか? 児童福祉の通報審査で 人種間格差への影響調査 ASFT(AI)導入前後の スクリーニングの決定を 定量的に分析 インタビューによりどう ASFTを活用しているか 定性的な分析の実施 ASFTと人の協調で 黒人と白人の子供の 選別率格差が減少 ASFTの制約を調整して 格差が軽減されている ことを発見 ASFTの勧告を決定基準 ではなく追加情報 として見ていた How Child Welfare Workers Reduce Racial Disparities in Algorithmic Decisions (5/5)