Slide 24
Slide 24 text
© LayerX Inc. 24
Formalising Human-in-the-Loop
オペレーション設計において、AIとの協業をどう設計するか?
リスクの⼤きな物に絞る 意識の覚醒を促す ⼈以外の要素を改善
オートメーションバイアスの危険性 予期せぬ⼊⼒が招くAIの誤分類
スケーラブルな監視の限界
Formalising Human-in-the-Loop: Computational Reductions, Failure Modes, and Legal-Moral Responsibility(arXiv)
‧⾼度なAIに対し⼈間が全ての挙
動を監視することの困難性
‧⼈間の認知能⼒を超えたAIに対
する意味ある監視の限界の⽰唆
‧AIへの過度な依存による、AIの
誤りを⾒逃すリスク
‧⾃動運転事故におけるドライ
バーの注意散漫という実例
‧AIが想定外の⼊⼒に対応できない学
習不⾜のリスク
‧⾃動運転で「横断中の歩⾏者」を誤
分類し衝突直前まで対応が遅れた実例
過去のHITLにおける失敗事例等を踏まえても重要な視点