Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Counterfactual Cross-Validation: Stable Model S...

usaito
July 22, 2020

Counterfactual Cross-Validation: Stable Model Selection Procedure for Causal Inference Models(公開用)

勉強会リンク:https://cfml.connpass.com/event/179600/

論文リンク:https://arxiv.org/abs/1909.05299

論文概要: 機械学習的な汎化誤差最小化の定式化に基づく因果効果予測手法が乱立傾向にあります。またそれらの手法は、多くのハイパーパラメータを有しています。そうした背景から、各環境について最適な予測手法とハイパーパラメータを選択するという手順の重要性が増している一方で、その手順に関する研究はあまり進んでいません。本研究では、観測可能なデータのみを用いてデータドリブンに、因果効果予測手法のモデル選択やハイパーパラメータチューニングを行うための方法を提案します。また、ベンチマークデータセットを用いて、既存のヒューリスティックな評価指標よりも提案手法がより良い性能を持つモデルを候補集合の中から探し当てられることを実証します。

usaito

July 22, 2020
Tweet

More Decks by usaito

Other Decks in Research

Transcript

  1. 自己紹介 名前:齋藤 優太 (Yuta Saito) 研究領域:反実仮想機械学習, 因果推論, 推薦/情報検索 研究実績:ICML, SIGIR,

    WSDM, RecSys,AdKDDなど 私のブックマーク:反実仮想機械学習 (Counterfactual Machine Learning; CFML). という記事を人工知能学会誌に書きました usaito
  2. 本日紹介する論文 • 題名:“Countefactual Cross-Validation: Stable Model Selection Procedure for Causal

    Inference Models” • 著者:Yuta Saito (Tokyo Tech), Shota Yasui (CyberAgent, Inc.) • 学会:ICML2020 (プレスリリース) • 概要: 個別的因果効果予測手法の開発研究が盛り上がりを見せる一方で、その評 価を観測可能なデータのみで行う手法はヒューリスティックなものしか存在 しなかった。そこで、新たな因果予測モデル選択方法を提案した。
  3. 企業での応用例が多数存在 tech企業での応用も多く存在 • Uberによる離反率減少のためのクーポン配布最適化 [対応論文] ◦ 長いことサービスを使っていないユーザー刺激のためのクーポン ◦ アルゴリズムはすでにサービスに実装されている ◦

    所属研究室OGの谷川さんによるuber論文の紹介資料 • Spotifyによるplaylist生成アルゴリズムの個別化 [対応論文] ◦ ユーザーごとに複数の推薦アルゴリズムを使い分けるメタ的個別化 ◦ spotifyで集められた大規模実験データを用いて個別化によるuser engagement の向上を確認
  4. 用いる記号 適宜補足を加えるが、主に次のnotationを用いる • X: 特徴量・共変量ベクトル • T: 介入有無を表すindicator (T=1なら介入有、T=0なら介入無) •

    Y(1): 介入を受けた際の目的変数 • Y(0): 介入を受けなかった際の目的変数 Y(1)やY(0)のような潜在目的変数により因果効果を定式化する方法を Potential Outcome Frameworkと呼ぶ
  5. 因果推論における根本問題 仮に、因果効果が直接観測されるならば、教師あり機械学習を適用可能 理想的な学習データ データ 特徴量 因果効果 Aさん XA τA Bさん

    XB τB Cさん XC τC この場合は、単に特徴量(X)を入力 として、目的変数(τ)を予測する 教師あり機械学習問題を解けば良い
  6. 近年、個別的因果効果予測手法の研究はかなり盛ん 応用可能性の広さと、技術的な面白さが背景となり、 観測可能なデータのみから個別的因果効果を予測する研究は多数存在 • Counterfactual Regression [Shalit et al. 2017]

    • Propensity Dropout [Alaa et al. 2017] • CEVAE [Louizos et al. 2017] • CMGPs [Alaa&Van der Shaar. 2017] • GAN-ITE [Yoon et al. 2018] • SITE [Yao et al. 2018] • ABCEI [Du et al. 2019] • DragonNet [Shi et al. 2019] 予測側だけ研究していれば、 実用化できるのか?
  7. 近年、個別的因果効果予測手法の研究はかなり盛ん 応用可能性の広さと、技術的な面白さが背景となり、 観測可能なデータのみから個別的因果効果を予測する研究は多数存在 • Counterfactual Regression [Shalit et al. 2017]

    • Propensity Dropout [Alaa et al. 2017] • CEVAE [Louizos et al. 2017] • CMGPs [Alaa&Van der Shaar. 2017] • GAN-ITE [Yoon et al. 2018] • SITE [Yao et al. 2018] • ABCEI [Du et al. 2019] • DragonNet [Shi et al. 2019] 予測側だけ研究していれば、 実用化できるのか? モデル選択やハイパラチュー ニングを行う必要がある
  8. 新たな評価指標を構築する上での方針 数少ない既存研究[Schuler et al. 2018][Alaa et al. 2019]は、 「検証用データセットを使ってモデルの性能を正確に推定」 することを目指している

    • この方針は、うまくいけば、最終目的である 最良モデル選択を完璧に遂行できる • しかし、因果効果が観測されない以上、非常に困難な問題
  9. Plug-in tauが満たすべき条件2 条件2: 条件付き分散の期待値ができるだけ小さいplug-in tauを使用すべき 理由(cf. Theorem 2) plug-in tauの条件付き分散

    の期待値(操作可能) 評価指標の有限サンプル近似において、 順位変動を引き起こす厄介な項の分散
  10. Doubly Robust class for plug-in tau plug-in tauとして、doubly robust estimatorと同様の形を考える

    e(X): 傾向スコア, T: 介入有無, Y: 観測目的変数, f: 何かしらの回帰関数
  11. plug-in tauの具体的な構築方法のまとめ plug-in tauの具体的な構築方法として、次の方法を提案 1. doubly robustなクラスをplug-in tauとすることで不偏性を満たす 2. 回帰関数fをplug-in

    tauの条件付き分散の期待値(の上界)を 観測可能な情報のみを用いて最小化するような基準で得る 期待値が取れると性能の順位が保存されることが保証された上で、 有限サンプル近似における順位変動誤差をなるだけ小さくすることが可能
  12. 提案評価指標を用いた因果予測モデル評価の流れ 以上の議論をもとに、次のような手順をとるのが提案手法 (cf. Algorithm 1) 1. (必要ならば)傾向スコアe(x)をデータから推定 2. plug-in tauの条件付き分散の期待値(の上界)を損失関数として関数fを学習

    3. 1,2で得られた要素をもとにdoubly robustなplug-in tauを計算 4. 3で得られたplug-in tauをもとに、評価対象の個別的因果効果予測モデル群の 評価指標のサンプル近似値(¥hat{R})を計算 5. 最も評価指標の値が小さい因果予測モデルを特定
  13. References U. Shalit, F. D. Johansson, and D. Sontag. Estimating

    individual treatment effect: generalization bounds and algorithms. In Proceedings of the 34th International Conference on Machine Learning-Volume 70, pages 3076–3085, 2017. A. M. Alaa and M. van der Schaar. Bayesian inference of individualized treatment effects using multi-task gaussian processes. In Advances in Neural Information Processing Systems, pages 3424–3432, 2017. A. M. Alaa, M. Weisz, and M. Van Der Schaar. Deep counterfactual networks with propensity-dropout. arXiv preprint arXiv:1706.05966, 2017. J. Yoon, J. Jordon, and M. van der Schaar. GANITE: estimation of individualized treatment effects using generative adversarial nets. In 6th International Conference on Learning Representations, 2018. C. Louizos, U. Shalit, J. M. Mooij, D. Sontag, R. Zemel, and M. Welling. Causal effect inference with deep latent-variable models. In Advances in Neural Information Processing Systems, pages 6446–6456, 2017. L. Yao, S. Li, Y. Li, M. Huai, J. Gao, and A. Zhang. Representation learning for treatment effect estimation from observational data. In Advances in Neural Information Processing Systems, pages 2633–2643, 2018.
  14. References Schuler, A., Baiocchi, M., Tibshirani, R., and Shah, N.

    A comparison of methods for model selection when estimating individual treatment effects. arXiv preprint arXiv:1804.05146, 2018. Imbens, G. W. and Rubin, D. B. Causal inference in statistics, social, and biomedical sciences. Cambridge University Press, 2015. Holland, P. W. Statistics and causal inference. Journal of the American statistical Association, 81(396):945–960, 1986. Johansson, F. D., Shalit, U., Kallus, N., and Sontag, D. Generalization bounds and representation learning for estimation of potential outcomes and causal effects. arXiv preprint arXiv:2001.07426, 2020. Du, X., Sun, L., Duivesteijn, W., Nikolaev, A., and Pechenizkiy, M. Adversarial balancing-based representation learning for causal effect inference with observational data. arXiv preprint arXiv:1904.13335, 2019. Shi, C., Blei, D., and Veitch, V. Adapting neural networks for the estimation of treatment effects. In Advances in Neural Information Processing Systems, pp. 2503–2513, 2019.