Upgrade to Pro — share decks privately, control downloads, hide ads and more …

論文紹介/5 papers at 75. Bias and Ethics (CHI 2022)

kuri8ive
June 24, 2022

論文紹介/5 papers at 75. Bias and Ethics (CHI 2022)

CHI勉強会2022、75. Bias and Ethicsセッションの5本の論文紹介です。
各論文1枚・全体で3分の発表時間のため、かなり簡略化された資料となっています。
https://pgl.jp/seminars/chi2022/sessions/629c62a3a7ad45002cacafbf

kuri8ive

June 24, 2022
Tweet

More Decks by kuri8ive

Other Decks in Research

Transcript

  1. 75. Bias and Ethics
    LINE株式会社
    栗本 真太郎(@kuri8ive)
    ACM Japan SIGCHI Chapter
    CHI勉強会2022(論文紹介) 2022年6月25日

    View full-size slide

  2. AIが代替しようとする、人間系システムでの経験が信頼の測定値を容易に混乱させる
    →AIへの認識の構成要素を国ごとに横並びで比較することは極めて慎重に行うべき
    2
    "Because AI is 100% right and safe":
    User Attitudes and Sources of AI Authority in India
    背景 手法 結果
    AIの受容度は曝露量で
    形成される可能性
    ネット利用の歴史が
    浅い社会の人々には
    一般化できない可能性
    中でもインドに焦点
    "AIの権威"を証拠なく
    行動に影響を与える力
    と定義
    AIの判断への意見等を
    半構造化インタビュー
    により収集
    アンケートにより
    AIによる成果の
    受容度を測定
    79%が判断を受け入れ
    95%が性能を信頼
    「コネや賄賂なしで
    審査してくれる」
    AIの権威は制度的、
    インフラ的、社会的な
    要因からの影響大
    (1/5)

    View full-size slide

  3. プライバシー制御ができず不快感があることを知覚していても使用の躊躇まで至らない
    →"搾取"の状況を変えるため、不快感常態化への対処法が必要
    3
    Still Creepy After All These Years:
    The Normalization of Affective Discomfort in App Use
    背景 手法 結果
    アプリのデータ利用を
    不気味と感じる人は
    多いが使ってはいる
    RQ1: プライバシー制御
    の認知は利用意図に
    どう影響する?
    RQ2: リテラシーや
    不快感は利用意図に
    どう影響する?
    音楽アプリの使用法を
    説明するシナリオ
    ①非明示データ収集
    ②勝手な他アプリ投稿
    ③盗聴に基づく広告
    × プライバシー制御の
    有無による計6パターン
    知覚や知識の程度を計測
    ①②制御の有無や
    不快感に関係なく
    高リテラシーかつ
    利用が現実的と
    感じるほど継続
    ③他2設定より弱い
    不快感の利用阻止効果
    (2/5)

    View full-size slide

  4. 専門家の自律性が低いと、ネガティブな結果が出た場合にAIがスケープゴートになる危険
    →ユーザーの期待や傾向を理解し、不要なバイアスを引き起こさないシステム設計が必要
    4
    背景 手法 結果
    AIの利用範囲拡大
    アルゴリズム嫌悪は
    領域とタスクに依存
    AIによる倫理的な
    意思決定はどう責任を
    負わされるか
    救助や国防のドローン
    シミュレーションで検証
    RQ1: 人とAIへの信頼は
    どう比較されるか
    RQ2: 自律性のレベルが
    異なる(HITL / HOTL)時
    責任はどう帰属するか
    RQ3: 人とAIの助言は
    どう比較されるか
    人はAIより道徳的だが
    能力は低い
    エンジニアの責任は
    HITLでは専門家が先に
    HOTLではAIが先に
    提示された場合に重い
    AIの推薦や決定は
    人より受け入れられる
    Capable but Amoral? Comparing AI and Human Expert
    Collaboration in Ethical Decision Making
    (3/5)

    View full-size slide

  5. 遡及的のみならず将来的なバイアス軽減が可能であることを確認
    →リアルタイムでバイアスを軽減しながらの評価を実現
    5
    背景 手法 結果
    逐次的な意思決定は
    アンカリング効果の
    影響を受けてしまう
    入試や製品レビューなど
    様々な場で逐次的な
    意思決定は行われる
    バイアスを軽減し
    意思決定の公平性を
    高められないか?
    入試と製品レビューで
    バイアスがあるか分析
    アンカリング状態を捕捉
    する確率モデルの提案
    提示アイテムを
    動的に決定する
    強化学習モデルの提案
    バイアスの傾向を確認
    精度向上と
    バイアス軽減の両立
    AI-Moderated Decision-Making: Capturing and Balancing
    Anchoring Bias in Sequential Decision Tasks
    (4/5)

    View full-size slide

  6. スクリーニング判定精度はASFTの方が優れているが、児童虐待防止まで考えるとどうか?
    →予測精度の定義が特に重要
    6
    背景 手法 結果
    人とAIの協調は
    単独の場合よりも
    公平性と有効性を
    改善する可能性が実証
    一方、差別的な決定を
    悪化させる例も存在
    児童虐待調査の文脈では
    どうか?
    児童福祉の通報審査で
    人種間格差への影響調査
    ASFT(AI)導入前後の
    スクリーニングの決定を
    定量的に分析
    インタビューによりどう
    ASFTを活用しているか
    定性的な分析の実施
    ASFTと人の協調で
    黒人と白人の子供の
    選別率格差が減少
    ASFTの制約を調整して
    格差が軽減されている
    ことを発見
    ASFTの勧告を決定基準
    ではなく追加情報
    として見ていた
    How Child Welfare Workers Reduce
    Racial Disparities in Algorithmic Decisions
    (5/5)

    View full-size slide