Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Gurobi Machine Learning 1 因果推論とアップリフトモデリング

Gurobi Machine Learning 1 因果推論とアップリフトモデリング

More Decks by NearMeの技術発表資料です

Other Decks in Research

Transcript

  1. 3 教師あり • 分類 ◦ スパムフィルタ ◦ 画像認識 • 回帰

    ◦ 株価予測 ◦ 不動産価格予測 教師なし • クラスタリング • GAN(Generative Adversarial Netrowk) 機械学習の分類
  2. 4 • 治療を行うことで患者が回復するかどうか • 奨学金を与えることで入学率が向上するかどうか • 割引することで売上が伸ばせるかどうか • etc. リスク

    コスト コスト 介入操作が行われる分野 因果推論は、リスクやコストを伴う介入を行う分野とその研究 リスクやコストを最小限に抑えつつ、効果を最大化させたい
  3. 9 • 「勉強したらテストに合格した」という観測からは 「勉強しなかったらテストに合格しなかった」のかはわからない • 後からこの学生は、「Persuadable」か「Sure Things」かは分類できない • ABテストを行えば、統計的に分類することは可能 •

    実用的には、「Persuadable」の分類予測が行えれば十分なことが多い 解説 ABテストを必須としない方法も研究されている 勉強したから合格した 勉強してもしなくても合格した 誰に勉強させる(Treatment)べきかを知りたい
  4. 11 • パラメータチューニングが難しくなる • 予測時の計算量が2倍になる • 特徴量の解釈が難しくなる 2モデルの問題点 → それぞれ異なるチューニングをして問題ないかは判断が難しい

    → 一度実行すればいい学習と違って、予測時の計算量は直接サーバーコストに影響する → 2つの学習結果で全く異なる特徴が抽出されてしまう
  5. 12 変数Zを導入して、教師として学習 Pythonコード例 1モデル // 学習データ df = pd.DataFrame({ 'y':

    [1, 0, 1, 0], //合格したか?(response) 't': [1, 1, 0, 0], // 勉強したか?(treatment) 'x1': [0.2, 0.8, 0.3, 0.4], 'x2': [0.4, 0.4, 0.2, 0.2] }) x = df[['x1', 'x2']] z = 1 - (df['y'] ^ df['t']) // z = [1, 0, 0, 1] model.fit(x, z) // どんな分類器でも可