Slide 1

Slide 1 text

説明可能性と性能を両立させる 深層学習の試み Henry Cui 機械学習の社会実装勉強会 2021年10月23日

Slide 2

Slide 2 text

自己紹介 ■ 2017年 東京大学理学部情報科学科 学士 ■ 2019年 同大学大学院情報理工学系研究科 修士 ■ 現在   同研究科 博士課程 ■ 研究テーマ ● 弱教師付き学習・能動学習・相対比較データ ■ 趣味テーマ ● 物体検出・説明可能性・因果推論 ● 画像処理・音声処理一般 ■ 更に趣味 ● Ruby on Rails, React, NextJS 2

Slide 3

Slide 3 text

説明可能性 ■ 機械学習モデルは意思決定に使う ● 原料価格予測モデル → 入荷数量・タイミング ● 人にまつわる予測モデル → その人の人生に大きな影響の決定 ● ... ■ 予測出す同時に、説明も聞いて納得して判断下す 3 Statistical Modeling: The Two Cultures, Breiman, Statistical Science, 2001, Vol. 16, No. 3, 199–231

Slide 4

Slide 4 text

事後局所近似で説明 ■ 既知 ● 深層モデルは性能が良いが、 説明できない ● 線形モデルは性能が悪いが、 説明しやすい ■ 両方のいいところを ● 深層モデルで性能の良い予測 ● 予測の近傍で線形モデルでわ かりやすく解釈 ■ これでいいのか 4 "Why Should I Trust You?": Explaining the Predictions of Any Classifier, Riberiro et al., ACM SIGKDD 2016

Slide 5

Slide 5 text

これではだめかも ■ 代理モデルの説明が完全正解でしたら、元のモデルを代替で きるはず ■ 性能と説明可能性が両立できないは迷信? 5 Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead, Rudin, Nat Mach Intell 1, 206–215 (2019)

Slide 6

Slide 6 text

次の方向 ■ 両立した深層モデルを作りましょう ■ 深層モデルが説明できる予測を出すためには ● 線形モデルのように、特徴量の連結になる ● 特徴量は説明できる ● 連結も説明できる ■ 初歩的に画像認識のタスクでのアイデア ● 画像に写っているモノの分類タスク ● 可視化できる特徴量による線形結合 ■ モノのパーツを特徴量に ■ 例:鳥の分類で、鳥の頭・足・翼のパッチ画像を特徴量に 6

Slide 7

Slide 7 text

内容 ■ モチベーション ■ ProtoPNet ■ Concept Bottleneck Models 7

Slide 8

Slide 8 text

■ NeurIPS 2019 ■ 自然な論理過程に従ったモデルアーキテクチャを提案 8

Slide 9

Slide 9 text

モデルアーキテクチャ ■ 明示的に3つに分けた構造 9

Slide 10

Slide 10 text

学習方法 1. Prototypes 及び 最終層以外の学習 ● 従来の分類ロスに Prototype のためのロス 2. Prototypes の更新 ● Prototypes を可視化可能なパッチに更新 ● 適切な仮定下で、この更新はモデルの予測に影響しない 3. 最終層の学習 ● 凸最適化問題として解く ● Sparsity の正規化でテスト時より自然な説明ができる 10

Slide 11

Slide 11 text

実験結果 ■ 良い分類性能を保ちつつ、説明可能 11

Slide 12

Slide 12 text

内容 ■ モチベーション ■ ProtoPNet ■ Concept Bottleneck Models 12

Slide 13

Slide 13 text

■ ICML 2020 ● https://slideslive.com/38928546/concept-bottleneck-models ■ 説明可能 + 介入によるモデル変更可能 13

Slide 14

Slide 14 text

特徴 ■ 学習時に concept ラベルが必要 ■ Concept 層を介して二部のモデルに分ける ● 学習時の順番を変えられる ■ 高効率で高性能 14

Slide 15

Slide 15 text

■ Concept に明らかな間違いがあるときに、結果修正 テスト時に介入できる 15

Slide 16

Slide 16 text

まとめ ■ 説明可能性は大事 ■ 局所近似による説明はおかしいかも ■ 説明可能性と性能は両立できるかも ■ 両立させた深層モデル ● ProtoNet・Concept Bottleneck Models 16