Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AIの精度と正義の話

 AIの精度と正義の話

Avatar for IQBocchi

IQBocchi

April 22, 2026

More Decks by IQBocchi

Other Decks in Technology

Transcript

  1. 顔認識の精度は、なぜ人種で違うのか? 白人 30人 有色人種 70人 世界がもし100人の村だったら ▲の世界に対して、顔認識の学習・検証用データセットを作るとしたら? 白人 30% 有色人種

    70% 白人50% 有色人種 50% ※ 多種多様な「有色人種」をひとくくりにしていいのかという問題は残る 実際の学習・検証用データセットの内訳 白人 83.5% 有色人種 16.5%
  2. なぜ気づけなかったのか? 白人 83.5% 有色人種 16.5% 女性 22.5% 男性 77.5% このエリア(白人男性)の精度さえよければ・・・

    性能を検証するための “標準” となるテストデータに、白人男性が多く含まれていた。 そのため・・・ このエリア(有色人種女性)の 精度が低くても・・・ ▲全体をおしなべると、精度が高く見えてしまう
  3. “データの偏り” と精度の問題 オーロラ出ない 99.999999…..% オ ー ロ ラ 出 る

    「日本でいつ、オーロラが観測できるか」を予測するシステムを作る場合 普通にテストデータを集めると オーロラが出るケースが稀すぎて学習がうまくいかない なので、こうする オーロラ出る オーロラ出る 稀な方のデータを「水増し」して、だいたい半々くらいの学習・検証データを作る
  4. AIの 精度 と 正義 の問題 – 根は共通 AIが扱う中で、学習用のデータに含まれていない (数が少なすぎる)カテゴリがある場合 例:黒人、オーロラ

    精度が出ない 不公平・不平等 → 正義 が損なわれる 十分に学習していないデータをAIはうまく処理できない
  5. そもそもなぜ、“標準” のテストデータに こんな偏りが生じたのか? 白人 83.5% 有色人種 16.5% 女性 22.5% 男性

    77.5% 書籍に詳しく 描かれているので お楽しみに … !! https://www.amazon.co.jp/dp/429502368X/