Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
機械学習の公平性と解釈可能性 / Fairness, Interpretability, an...
Search
Kon
July 28, 2018
Science
5
2.6k
機械学習の公平性と解釈可能性 / Fairness, Interpretability, and Explainability Federation of Workshops
https://connpass.com/event/92705/
Kon
July 28, 2018
Tweet
Share
More Decks by Kon
See All by Kon
Numerai はいいぞ / An encouragement of Numerai
yohrn
0
2.7k
M5 Forecasting 参加報告 / 143rd place solution of M5 Forecasting Accuracy
yohrn
1
1.3k
AutoML はお好きですか? / 8th place solution of AutoWSL 2019
yohrn
1
3.4k
3rd Place Solution of AutoSpeech 2019
yohrn
0
450
自然言語処理初心者が AutoNLP に挑戦した話 / 8th place solution of AutoNLP 2019
yohrn
0
920
AutoML パッケージの開発を円滑に進めたい / How to develop AutoML package
yohrn
1
3.6k
機械学習の再現性 / Enabling Reproducibility in Machine Learning Workshop
yohrn
9
2.9k
異常検知の評価指標って何を使えばいいの? / Metrics for one-class classification
yohrn
0
6.9k
35th ICML における異常検知に関する論文紹介 / Deep One-Class Classification
yohrn
0
8.2k
Other Decks in Science
See All in Science
The Incredible Machine: Developer Productivity and the Impact of AI
tomzimmermann
0
550
Analysis-Ready Cloud-Optimized Data for your community and the entire world with Pangeo-Forge
jbusecke
0
130
05_山中真也_室蘭工業大学大学院工学研究科教授_だてプロの挑戦.pdf
sip3ristex
0
160
Improving Search @scale with efficient query experimentation @BerlinBuzzwords 2024
searchhub
0
270
Planted Clique Conjectures are Equivalent
nobushimi
0
120
位相的データ解析とその応用例
brainpadpr
1
980
All-in-One Bioinformatics Platform Realized with Snowflake ~ From In Silico Drug Discovery, Disease Variant Analysis, to Single-Cell RNA-seq
ktatsuya
0
310
応用心理学Ⅰテキストマイニング講義資料講義編(2024年度)
satocos135
0
110
Iniciativas independentes de divulgação científica: o caso do Movimento #CiteMulheresNegras
taisso
0
990
観察研究における因果推論
nearme_tech
PRO
1
160
01_篠原弘道_SIPガバニングボード座長_ポスコロSIPへの期待.pdf
sip3ristex
0
150
理論計算機科学における 数学の応用: 擬似ランダムネス
nobushimi
1
400
Featured
See All Featured
Typedesign – Prime Four
hannesfritz
40
2.5k
Responsive Adventures: Dirty Tricks From The Dark Corners of Front-End
smashingmag
251
21k
Agile that works and the tools we love
rasmusluckow
328
21k
Building Your Own Lightsaber
phodgson
104
6.2k
The Pragmatic Product Professional
lauravandoore
32
6.4k
For a Future-Friendly Web
brad_frost
176
9.6k
Six Lessons from altMBA
skipperchong
27
3.6k
GraphQLの誤解/rethinking-graphql
sonatard
68
10k
Music & Morning Musume
bryan
46
6.4k
Refactoring Trust on Your Teams (GOTO; Chicago 2020)
rmw
33
2.8k
Facilitating Awesome Meetings
lara
52
6.2k
Designing on Purpose - Digital PM Summit 2013
jponch
117
7.1k
Transcript
機械学習の 公平性と 解釈可能性 ICML 2018 読み会 Saturday, July 28, 2018
Yu Ohori ML Researcher at NSSOL (2017-) • Semi-supervised learning
• Anomaly detection PyCon JP Staff (2018-) 2
3 再犯予測システムが 公平性を欠いている と指摘した
4 データ主体は決定に対して 意味のある説明を要求する 権利を有する
今, 公平性と 解釈可能性が熱い? 5
6
ICML 2017 Best Paper Awards • Koh & Liang, Understanding
Black-box Predictions via Influence Functions 7 ICML 2018 Best Paper Awards • Liu et al., Delayed Impact of Fair Machine Learning
ICML 2017 Tutorials • Kim & Doshi-Velez, Interpretable Machine Learning
8 ICML 2018 Tutorials • Corbett-Davies & Goel, Defining and Designing Fair Algorithms
ICML 2017 Workshops • 2nd WHI IJCAI 2017 Workshops •
1st XAI 9 ICML 2018 Workshops • 5th FAT/ML • 3rd WHI IJCAI-ECAI 2018 Workshops • 1st IReDLiA • 2nd XAI Fairness, Interpretability, and Explainability Federation of Workshops
10 3rd Workshop on Human Interpretability in Machine Learning (WHI)
Saturday, July 14, 2018 • 3 invited talks • 17 contributed talks の中から 5 つ紹介
11 何故そう判断した 複雑で君には 理解出来ない 君は信用出来ない 機械学習システム 利用者
12 LIME [Ribeiro et al., KDD ‘16] Code: github.com/marcotcr/lime SHAP
[Lundberg & Lee, NIPS ‘17] Code: github.com/slundberg/shap
13 LIME の仕組み 1. 対象の周辺で訓練標本を生成, 分類器が出力する確率で注釈 2. 対象に近い標本を重み付け, 複雑さに対する制約を与え, 説明器(Ridge
回帰)を学習 3. 説明器の係数に基づいて, 予測に寄与する特徴を提示
14 DeepExplain [Ancona et al., ICLR ‘18] Code: github.com/marcoancona/DeepExplain
1. Tomsett et al., Interpretable to Whom? A Role-based Model
for Analyzing Interpretable Machine Learning Systems エージェントの役割毎に解釈可能性を考察したお話 15
16 explainability transparency creator- interpretability 重要 重要 operator- interpretability 重要
時に重要 executor- interpretability 重要 重要でない decision-subject- interpretability 重要 時に重要 data-subject- interpretability 重要でない 重要 examiner- interpretability 重要 重要 機械学習エコシステムの 概念モデルを提案 システム開発 企業 融資申込者 過去の 融資申込者 金融規制 当局 金融機関 従業員 例:融資申込 金融機関 従業員
2. van der Waa et al., Contrastive Explanations with Local
Foil Trees Code: github.com/MarcelRobeer/ContrastiveExplanation 高次元データに適用可能な説明手法を提案したお話 17
18 LIME, SHAP の問題点 次元が大きくなるにつれて,提示する特徴数(説明長)は増えてい き,次第に説明の解釈が難しくなる
提案手法(Constrative Explanation)の発想 「B ではなく A と予測したのは何故か?」という対比した問い に答えることで,説明長を制限出来るのではないか? 一対他方式の決定木を学習することでこれを実現 19
20 全分類器で説明長が 短いことを実証 説明長 0 は A と B の間で説明の差異が見られないことを意味する
3. Laugel et al., Defining Locality for Surrogates in Post-hoc
Interpretablity Code: github.com/axadil/locality-interpretable-surrogate 局所性を適切に定義することで説明器の精度が向上したお話 21
22 LIME の問題点 分類器の局所的な決定境界 の近似に時折失敗
• b: black box classifier • s_x: explanation model 提案手法(LS:
Local Surrogate)の発想 分類器の決定境界の周辺で 訓練標本を生成すれば, 説明器の精度が向上するの ではないか? 23
24 説明器の精度を測るため, 局所忠実性の指標を導入 • Acc: AUC score • b: black
box classifier • s_x: explanation model LS が LIME に比べて 精度が高いことを実証
4. Collaris et al., Instance-Level Explanations for Fraud Detection: A
Case Study Achmea 社の保険金詐欺検出に 種々の説明手法を利用したお話 25
26 専門家の理解を促すため, ダッシュボードを作成 • Feature contribution [Palczewska et al., IEEE
IRI ‘14] • Partial dependence [Friedman, Ann. Statist. ‘01] • Local rule extraction [Deng, arXiv ‘14] 1. Rule ダッシュボードは専門家に特に好まれた 2. Partial dependence はあまりに単純であった 3. 説明の不一致は専門家の評価に影響しなかった 4. 欠損値や不均衡は予測の説明に大きく影響した
5. Alvarez-Melis & Jakkola, On the Robustness of Interpretability Methods
既存の説明手法の頑健性を測定したお話 27
28 LIME, SHAP の問題点 複雑なモデルの説明時に, 距離が近しい標本の間で 意味の異なる説明を提示
局所 Lipschitz の定義から 頑健性の指標を導入 • f: explanation model 29 低頑健
高頑健 LIME が他手法に比べて 頑健でないことを実証
5th Workshop on Fairness, Accountability, and Transparency in Machine Learning
(FAT/ML) Sunday, July 15, 2018 • 2 invited talks • 8 contributed talks • 20 posters の中から 1 つ紹介 30
31 何故そう判断した 複雑で君には 理解出来ない 君は信用出来ない 機械学習システム 利用者
1. Gajane & Pechenizkiy, On Formalizing Fairness in Prediction with
Machine Learning 社会科学の立場から種々の公平性を解説したお話 32
33
34 時間不足で資料作成が 間に合いませんでした 近いうちに続きを更新します
35 今, 公平性と 解釈可能性が熱い! • 現状は,定式化の合意形成の段階 • 法整備に伴い,急速に発展する見込み