Upgrade to Pro — share decks privately, control downloads, hide ads and more …

機械学習の公平性と解釈可能性 / Fairness, Interpretability, and Explainability Federation of Workshops

Kon
July 28, 2018

機械学習の公平性と解釈可能性 / Fairness, Interpretability, and Explainability Federation of Workshops

Kon

July 28, 2018
Tweet

More Decks by Kon

Other Decks in Science

Transcript

  1. Yu Ohori ML Researcher at NSSOL (2017-) • Semi-supervised learning

    • Anomaly detection PyCon JP Staff (2018-) 2
  2. 6

  3. ICML 2017 Best Paper Awards • Koh & Liang, Understanding

    Black-box Predictions via Influence Functions 7 ICML 2018 Best Paper Awards • Liu et al., Delayed Impact of Fair Machine Learning
  4. ICML 2017 Tutorials • Kim & Doshi-Velez, Interpretable Machine Learning

    8 ICML 2018 Tutorials • Corbett-Davies & Goel, Defining and Designing Fair Algorithms
  5. ICML 2017 Workshops • 2nd WHI IJCAI 2017 Workshops •

    1st XAI 9 ICML 2018 Workshops • 5th FAT/ML • 3rd WHI IJCAI-ECAI 2018 Workshops • 1st IReDLiA • 2nd XAI Fairness, Interpretability, and Explainability Federation of Workshops
  6. 10 3rd Workshop on Human Interpretability in Machine Learning (WHI)

    Saturday, July 14, 2018 • 3 invited talks • 17 contributed talks の中から 5 つ紹介
  7. 12 LIME [Ribeiro et al., KDD ‘16] Code: github.com/marcotcr/lime SHAP

    [Lundberg & Lee, NIPS ‘17] Code: github.com/slundberg/shap
  8. 1. Tomsett et al., Interpretable to Whom? A Role-based Model

    for Analyzing Interpretable Machine Learning Systems エージェントの役割毎に解釈可能性を考察したお話 15
  9. 16 explainability transparency creator- interpretability 重要 重要 operator- interpretability 重要

    時に重要 executor- interpretability 重要 重要でない decision-subject- interpretability 重要 時に重要 data-subject- interpretability 重要でない 重要 examiner- interpretability 重要 重要 機械学習エコシステムの 概念モデルを提案 システム開発 企業 融資申込者 過去の 融資申込者 金融規制 当局 金融機関 従業員 例:融資申込 金融機関 従業員
  10. 2. van der Waa et al., Contrastive Explanations with Local

    Foil Trees Code: github.com/MarcelRobeer/ContrastiveExplanation 高次元データに適用可能な説明手法を提案したお話 17
  11. 3. Laugel et al., Defining Locality for Surrogates in Post-hoc

    Interpretablity Code: github.com/axadil/locality-interpretable-surrogate 局所性を適切に定義することで説明器の精度が向上したお話 21
  12. • b: black box classifier • s_x: explanation model 提案手法(LS:

    Local Surrogate)の発想 分類器の決定境界の周辺で 訓練標本を生成すれば, 説明器の精度が向上するの ではないか? 23
  13. 24 説明器の精度を測るため, 局所忠実性の指標を導入 • Acc: AUC score • b: black

    box classifier • s_x: explanation model LS が LIME に比べて 精度が高いことを実証
  14. 4. Collaris et al., Instance-Level Explanations for Fraud Detection: A

    Case Study Achmea 社の保険金詐欺検出に 種々の説明手法を利用したお話 25
  15. 26 専門家の理解を促すため, ダッシュボードを作成 • Feature contribution [Palczewska et al., IEEE

    IRI ‘14] • Partial dependence [Friedman, Ann. Statist. ‘01] • Local rule extraction [Deng, arXiv ‘14] 1. Rule ダッシュボードは専門家に特に好まれた 2. Partial dependence はあまりに単純であった 3. 説明の不一致は専門家の評価に影響しなかった 4. 欠損値や不均衡は予測の説明に大きく影響した
  16. 5. Alvarez-Melis & Jakkola, On the Robustness of Interpretability Methods

    既存の説明手法の頑健性を測定したお話 27
  17. 局所 Lipschitz の定義から 頑健性の指標を導入 • f: explanation model 29 低頑健

    高頑健 LIME が他手法に比べて 頑健でないことを実証
  18. 5th Workshop on Fairness, Accountability, and Transparency in Machine Learning

    (FAT/ML) Sunday, July 15, 2018 • 2 invited talks • 8 contributed talks • 20 posters の中から 1 つ紹介 30
  19. 1. Gajane & Pechenizkiy, On Formalizing Fairness in Prediction with

    Machine Learning 社会科学の立場から種々の公平性を解説したお話 32
  20. 33