Upgrade to Pro — share decks privately, control downloads, hide ads and more …

機械学習モデルの解釈可能性について (2020-11-11)

konabuta
November 11, 2020

機械学習モデルの解釈可能性について (2020-11-11)

< OSS X Users Meeting > #29 AI / Deep Learning での講演資料です。
https://eventregist.com/e/OSSX-2020-11

konabuta

November 11, 2020
Tweet

More Decks by konabuta

Other Decks in Technology

Transcript

  1. ⼥部⽥啓太 Cloud Solution Architect – Machine Learning & Deep Learning

    略歴 : ⽇本マイクロソフト株式会社 カスタマーサク セス事業本部 Data & AI クラウドソリューションアー キテクト。統計解析ソフトウェアベンダーでのセールス エンジニアを経て、2018年 Microsoft に⼊社。 現在は、Azure Machine Learning を中⼼とした AI・機械学習のアーキテクトとしてお客様プロジェクト へ技術⽀援を⾏う。また、最新技術をイベント・セミ ナーで訴求している。
  2. https://github.com/interpretml Interpret-text ⾃然⾔語処理モデルの解釈可能性 DiCE 反実仮想によるモデル解釈 Interpret 解釈可能な Glassbox モデルと Blackbox

    なモデル の解釈性を提供 Interpret-community Interpret にある表形式データに対す る追加機能 Azureml-interpret Azure Machine Learning の Python SDK のラッパー
  3. https://github.com/interpretml Interpret-text ⾃然⾔語処理モデルの解釈可能性 DiCE 反実仮想によるモデル解釈 Interpret 解釈可能な Glassbox モデルと Blackbox

    なモデル の解釈性を提供 Interpret-community Interpret にある表形式データに対す る追加機能 本⽇の範囲 Azureml-interpret Azure Machine Learning の Python SDK のラッパー
  4. 解釈可能性が⾼い構造を持つ 機械学習アルゴリズム Fever? Internal Bleeding? Stay Home Stay Home Go

    to Hospita l 決定⽊ ルールリスト 線形回帰・ロジスティック回帰 Explainable Boosting Machines (EBM) …. Glass-box models
  5. ž Linear Model ž y = β0 + β1 x1

    + β2 x2 + ... + βn xn ž Additive Model ž y = f1 (x1 ) + f2 (x2 ) + ... + fn (xn) ž Additive Model with Pairwise Interactions (GA2M) ž y = Ʃi fi (xi) + Ʃij fij (xi , xj )
  6. • 古典的な機械学習パイプライン • 前処理、エンコーディング、学習、 ハイパーパラメータチューニングが実装済み • サポートしているモデル • scikit-learn の線形モデル

    (coefs_) • Tree ベースのアンサンブルモデル (feature_importances) • 上記モデルの係数や重要度を利⽤した説明性を提供 デフォルトの設定 : 1-gram bag-of-words + scikit-learn count vectorizer + Logistic regression
  7. Rethinking Cooperative Rationalization: Introspective Extraction and Complement Control, Yu et

    al. [EMNLP 2019] 内省的⽣成器 min-max ゲーム 予測器 補完的予測器
  8. Classical Text Explainer Unified Information Explainer Introspective Rationale Explainer Input

    model support Scikit-learn linear models and tree-based models PyTorch PyTorch Explain BERT No Yes Yes Explain RNN No No Yes NLP Pipeline Support Handles text pre- processing, encoding, training, hyperparameter tuning Uses BERT tokenizer however user needs to supply trained/fine- tuned BERT model, and samples of trained data Generator and predictor modules handle the required text pre-processing.
  9. InterpretML : Understand Models. Build Responsibly. interpretML (GitHub) 機械学習モデル解釈ナイト (エンジニア向け)

    BlackBox モデルの説明性・解釈性技術の実装 ⼀般化線形モデル (GLM) & ⼀般化加法モデル(GAM) Deep Learning Ditial Conference [Track4-1] BERT の解剖学 : interpret-text による⾃然⾔語処理 (NLP) のモデル解釈 Microsoft AI Business School Microsoft 責任のある AI