Learning in Practice KDD で3回目に開催された、機械学習における因果推論の実践についてのワークショップ 論文発表は15件 (オーラル10件、ポスター5件) で、日本からの発表も多い 推薦システムのアイテムのようにアクションが増減する状況下のOff-Policy Learning (東京科学大学, ソニーグループ 他) Off-Policy Learning (OPL): OPEの評価結果を最適化するような方策(機械学習モデルetc.)を学習すること 推薦システムの入力層にユーザーの興味・同調を表現した埋め込みを注入することで
 Exposure Bias (人気商品や新作が優先表示されるバイアス) に対処 (LG Uplus) 複数の処置が同時になされるときの単独・相乗効果を推定するDLフレームワーク (NTT DOCOMO, 横浜市立大学) ポイント獲得等のために意識的に支出行動を操作する・しない顧客をベイジアンモデリング (NTT DOCOMO, 慶應義塾大学) Invited Talkも4件あり 処置のアウトカムが複数ある場合の因果効果推定の理論的な導出 (Linbo Wang氏; トロント大学) 比較的若い分野だが参加者は100人前後いて、盛り上がりを感じた Offline Contextual Bandits in the Presence of New Actions;
 Yuta Saito* (Cornell University), Ren Kishimoto (Institute of Science Tokyo), Tatsuhiro Shimizu, Yusuke Narita (Yale University), Kazuki Kawamura,
 Takanori Muroi, Yuki Sasamoto, Kei Tateno, Takuma Udagawa (Sony Group Corporation); Web Page: https://causal-machine-learning.github.io/kdd2025-workshop/