– 何を根拠に判断を⾏っているのかよくわからん – “The problem is that a single metric, such as classification accuracy, is an incomplete description of most real-world tasks.”1 ※ https://arxiv.org/abs/1702.08608
can understand the cause of a decision.1 複雑な分類器の判断基準を, ⼈間にも解釈可能(interpretable)になるように提⽰2 1. https://christophm.github.io/interpretable-ml-book/interpretability.html 2. https://www.slideshare.net/shima__shima/kdd2016
can understand the cause of a decision.1 複雑な分類器の判断基準を, ⼈間にも解釈可能(interpretable)になるように提⽰2 1. https://christophm.github.io/interpretable-ml-book/interpretability.html 2. https://www.slideshare.net/shima__shima/kdd2016 ⼊⼒ 出⼒ 根拠を⽰す表現 (グラフなど)
should I trust You?:Explaining the predictions of any classifier” – 個別のデータに対する予測結果に対し, 特徴量(テキストや画像の⼀部など)をハイライトして説明 ※ https://arxiv.org/pdf/1602.04938.pdf
Approach to Interpreting Model Predictions” – LIMEを含むいくつかの局所的な説明法を ゲーム理論の枠組みのもとで統⼀的に記述 説明モデルが満たすべき性質を定式化,指標化 → SHAP Value ※ https://github.com/slundberg/shap