Ethics Guidelines for Trustworthy AI
• AI HLEG (欧州委員会, 2018) による AI システムのガイドライン
• 信頼できる AI システムを作るするための評価リスト
https://ec.europa.eu/futurium/en/ai-alliance-consultation
Explainability:
- Did you ensure an explanation as to why the system took a certain choice
resulting in a certain outcome that all users can understand?
すべてのユーザーが理解できる形で、AI システムが結果を選択した理由が説明できるようにしましたか ?
- Did you design the AI system with interpretability in mind from the start?
はじめから解釈性を念頭に AI システムを設計しましたか ?
Slide 6
Slide 6 text
https://www.microsoft.com/en-us/ai/responsible-ai
Slide 7
Slide 7 text
https://interpret.ml/
Slide 8
Slide 8 text
Interpretability for
Text Data
https://github.com/interpretml/interpret-text
Slide 9
Slide 9 text
Interpret-text: NLP モデルの解釈
• 文章データのテキスト分類予測について、”局所的な説明” のアルゴリズムを提供
するオープンソースライブラリ
• 分類タスク等の予測に寄与した単語をピックアップできる
• 主な特徴
• 最先端のテキスト解釈・説明アルゴリズム
• 複数の解釈手法に対する統合された API
• 対話型のダッシュボードによる高いユーザビリティ
• 実装済みの説明手法
• Classical Text Explainer
• Unified Information Explainer (post-hoc, model agnostic)
• Introspective Rationale Explainer (plug-in during training, model agnostic)
Slide 10
Slide 10 text
Unified
Information
Explainer
Introspective
Rationale
Explainer
interpret-text
Slide 11
Slide 11 text
Unified Information Explainer
• Microsoft Research が ICML 2019 で
提案した state-of-the-art な解釈手法
• 情報理論の考え方がベース
• 学習済みモデルを解釈
• 特徴
• レイヤー間やモデル間で一貫性のある解釈を獲得出来る
• 活性化関数やアーキテクチャに制約がなく、任意の DNN モデルに対して適用できる
• 現在 interpret-text としては BERT のみを実装済み
• 将来的に LSTM, RNN に対応予定
Towards A Deep and Unified Understanding of Deep Neural Models in NLP, Guan et al. [ICML 2019]
各手法の比較 ※ Interpret-text への実装ベースでの比較
Classical Text Explainer Unified Information
Explainer
Introspective Rationale
Explainer
Input model support Scikit-learn linear models
and tree-based models
PyTorch PyTorch
Explain BERT No Yes Yes
Explain RNN No No Yes
NLP Pipeline Support Handles text pre-
processing, encoding,
training, hyperparameter
tuning
Uses BERT tokenizer
however user needs to
supply trained/fine-
tuned BERT model, and
samples of trained data
Generator and predictor
modules handle the required
text pre-processing.
参考文献
責任ある AI の基本原則を特定する - Learn | Microsoft Docs
https://docs.microsoft.com/ja-jp/learn/modules/responsible-ai-principles/
【記事更新】私のブックマーク「説明可能AI」(Explainable AI) – 人工知能学会 (The Japanese Society for Artificial Intelligence)
https://www.ai-gakkai.or.jp/my-bookmark_vol34-no4/
BlackBox モデルの説明性・解釈性技術の実装
https://www.slideshare.net/DeepLearningLab/blackbox-198324328
interpretml/interpret-text: A library that incorporates state-of-the-art explainers for text-based machine learning models and visualizes the result with a
built-in dashboard.
https://github.com/interpretml/interpret-text
Responsible AI: Interpret-Text with the Introspective Rationale Explainer | by Eve Pardi | Medium
https://medium.com/@evepardi/responsible-ai-interpret-text-introspective-rationale-explainer-9a3b1d7a5e4a
How to Explain Text Models with IntepretML Deep Dive | AI Show | Channel 9
https://channel9.msdn.com/Shows/AI-Show/How-to-Explain-Text-Models-with-IntepretML-Deep-Dive