Slide 1

Slide 1 text

ICML Workshop Uncertainty & Robustness in Deep Learning Masato Ota (@ottamm_190)

Slide 2

Slide 2 text

ICML Workshop Uncertainty & Robustness in Deep Learning 1/2 UQ:アンサンブル⼿法 • Repulsive Deep Ensembles are Bayesian UQ:単⼀決定論的⼿法 • Determinis4c Neural Networks with Induc4ve Biases Capture Epistemic and Aleatoric Uncertainty • Deep Determinis4c Uncertainty for Seman4c Segmenta4on OOD/Anomaly detec2on • Detec4ng OODs as datapoints with High Uncertainty • Do We Really Need to Learn Representa4ons from In-domain Data for Outlier Detec4on? • PnPOOD : Out-Of-Distribu4on Detec4on for Text Classifica4on via Plug and Play Data Augmenta4on

Slide 3

Slide 3 text

ICML Workshop Uncertainty & Robustness in Deep Learning 2/2 RL • Safety & Exploration: A Comparative Study of Uses of Uncertainty in Reinforcement Learning • Implicit Ensemble Training for Efficient and Robust Multiagent Reinforcement Learning Uncertainty Analysis • A Tale Of Two Long Tails • Diverse and Amortized Counterfactual Explanations for Uncertainty Estimates • Uncertainty Toolbox: an Open-Source Library for Assessing, Visualizing, and Improving Uncertainty Quantification • Notes on the Behavior of MC Dropout • On The Dark Side Of Calibration For Modern Neural Networks

Slide 4

Slide 4 text

この分野に明るくない⽅に向けて 後で紹介する”Uncertainty Toolbox: an Open-Source Library for Assessing, Visualizing, and Improving Uncertainty Quantification “のGithubに⽤語集があります。 その⽤語を先に確認するとわかりやすいかもしれません。 Link:https://github.com/uncertainty-toolbox/uncertainty-toolbox/blob/master/docs/glossary.md なるべく、それぞれの研究の動機等の雰囲気が伝わるような説明を⼼がけました。 認識の不確実性 偶然の不確実性 Amini, A., Schwar.ng, W., Soleimany, A., & Rus, D. (2019). Deep eviden.al regression. arXiv preprint arXiv:1910.02600. (データの不確実性) (モデルの不確実性)

Slide 5

Slide 5 text

Repulsive Deep Ensembles are Bayesian アンサンブルメンバー間の多様性が増すように重み更新⽅法を修正 認識の不確実性を推定するのに深層アンサンブルが実装が簡単で性能も良く⼈気 独⽴で学習したメンバーでは、多様性を⾼めるのが困難 多様性が低いと不確実性が過⼩評価される ディープアンサンブルの重みの更新式に、他のメンバーの重みとのカーネル関数を反 発( Repulsive )項として導⼊。明⽰的にメンバー間を遠ざけるようにした メンバー間の多様性を更新式で強制され、認識の不確実性の推定が⾼性能 Francesco D’Angelo, Vincent Fortuin 要約 背景 課題 ⽅法 結果 #UQ:アンサンブル⼿法

Slide 6

Slide 6 text

Repulsive Deep Ensembles are Bayesian • 重み空間におけるBNNの推論は、モデルがover-parametrizationされているため、縮退した 解になる可能性がある。 • 事後サンプルは異なる重みを持つが、同じ関数にマッピングされる可能性がある。結果、 アンサンブルの多様性を失う。 • Deep Ensemblesのパラメータ勾配更新にカーネル化された反発を導⼊ AAADSXicjVHPa9RAFH7J+qOmard6EbwEl0qlukx6sFIoFPUgnvrDbQs7a5iMs7vTnfwgmd2yjfkH/Ac8eFIQEf8ML4JnD717KZ6kgiIefJvEilvUvpC8733zvi9vZrxIyUQTsmeYlRMnT52eOGNNnj13fqo6fWEjCfsxFw0eqjDe8lgilAxEQ0utxFYUC+Z7Smx6vTuj9c2BiBMZBg/0MBItn3UC2ZacaaTc6kfatHbcVGYPUz3nZEu/cDZHRZRIhT1YUCXaepYGzFPMpirs2FFBHbY/TqnPdJczZd/NaCw7XX3tBm3HjKc06ftuur3kYGOQ2YWLmx5KM7s3ZnbdRridw9IqG3c5hqTMFm251Rqpkzzso8ApQQ3KWAmrr4DCIwiBQx98EBCARqyAQYJPExwgECHXghS5GJHM1wVkYKG2j10COxiyPfx2sGqWbID1yDPJ1Rz/ovCNUWnDDPlAXpMD8o68Ifvkx1+90txjNMsQs1doReROPbm0/vW/Kh+zhu5v1T9n1tCGW/msEmePcma0C17oB7tPD9YX12bSq+QF+YTzPyd75C3uIBh84S9XxdozsPACnPHjPgo25uvOzbqzOl9bvl1exQRchiswi+e9AMtwD1agAdy4b0TG0Ng135ufzW/m96LVNErNRfgjKpWf9Kbl5g== wt+1 i = wt i + ✏t r log p wt i |D Pn j=1 rwt i k wt i , wt j Pn j=1 k wt i , wt j ! AAACcXichVHLSsNAFD2NrxqtrbpR3ASLIghl4kLFVcGNS19VoakliVMNTZOQpJUa+gP+gIKrFkTEz3DjD7jwE8RlBTcuvEkDoqLeYWbOnLnnzpkZzTENz2fsKSH09Q8MDiWHxZHR1Fg6Mz6x59l1V+cF3TZt90BTPW4aFi/4hm/yA8flak0z+b5WXQ/39xvc9Qzb2vWbDi/V1GPLqBi66hN1qBTFQNEq0mkrJSqlcibLciwK6SeQY5BFHJt25gYKjmBDRx01cFjwCZtQ4VErQgaDQ1wJAXEuISPa52hBJG2dsjhlqMRWaTymVTFmLVqHNb1IrdMpJnWXlBLm2CO7ZV32wO7YM3v/tVYQ1Qi9NGnWelrulNPnUztv/6pqNPs4+VT96dlHBauRV4O8OxET3kLv6RtnF92dte25YJ512Av5b7Mndk83sBqv+vUW376CSB8gf3/un2BvKScv5+StpWx+Nf6KJGYwiwV67xXksYFNFOhcF5doo5PoCtOCJMz2UoVErJnElxAWPwCQlI5A w AAACa3ichVG7SgNBFD1ZX3F9JJpG1EIMEaswa6FiJdhY5mE0kATZXUcdstlddidBDf6ApY1FbBRExM+w8Qcs8gkiVgo2Ft5sFkRFvcvsnDlzz50zdwzXEr5krB1Renr7+geig+rQ8MhoLD42vuk7dc/kBdOxHK9o6D63hM0LUkiLF12P6zXD4ltGda2zv9Xgni8ce0MeurxS0/dssStMXRJVLJfUgxG1XNmOJ1maBTHzE2ghSCKMjBO/Rhk7cGCijho4bEjCFnT49JWggcElroImcR4hEexzHEMlbZ2yOGXoxFbpv0erUsjatO7U9AO1SadYNDxSziDFHtgNe2H37JY9svdfazWDGh0vhzQbXS13t2MnE/m3f1U1miX2P1V/epbYxXLgVZB3N2A6tzC7+sbR2Ut+JZdqzrFL9kT+L1ib3dEN7MareZXluRZUegDte7t/gs2FtLaY1rILydXl8CmimMIs5qnfS1jFOjIoBH0+RQvnkWcloUwq091UJRJqEvgSSuoDJAaLyQ== x AAACa3ichVG7SgNBFD1ZX3F9JJpG1EIMEaswm0KDVcDGMlFjAkmQ3XUSl+yL3U0gBn/A0sYiNgoi4mfY+AMWfoKIVQQbC+9uFkRFvcvsnDlzz50zdxRb11yPsceIMDQ8MjoWHRcnJqemY/GZ2T3XajkqL6qWbjllRXa5rpm86Gmezsu2w2VD0XlJaW76+6U2d1zNMne9js1rhtwwtbqmyh5R5WpF7EyJ1dp+PMnSLIiln0AKQRJh5K34Nao4gAUVLRjgMOER1iHDpa8CCQw2cTV0iXMIacE+xzFE0rYoi1OGTGyT/g1aVULWpLVf0w3UKp2i03BIuYQUe2A3rM/u2S17Yu+/1uoGNXwvHZqVgZbb+7GTuZ23f1UGzR4OP1V/evZQRzbwqpF3O2D8W6gDffvorL+zsZ3qrrBL9kz+L9gju6MbmO1X9arAt3sQ6QGk7+3+CfYyaWktLRUyyVw2fIooFrCMVer3OnLYQh7FoM+n6OE88iIkhHlhcZAqREJNAl9CSH0AJgqLyg== y 事後確率最⼤の⽅向 KDE:他のメンバーと重みが似ているほど離れる kde-WGD

Slide 7

Slide 7 text

Repulsive Deep Ensembles are Bayesian HMCをgrand-truthとした場合の分類と回帰の⽐較 kde-fWGD :重み空間でKDEしていたのを関数空間に変えた(w→f)

Slide 8

Slide 8 text

• 付録:評価指標 Repulsive Deep Ensembles are Bayesian 予測分布のエントロピー:偶然の不確実性+認識の不確実性 モデルの不⼀致の尺度ベクトル:認識の不確実性 個々の予測と平均の予測の偏差のばらつき 予測分布 アンサンブル メンバー モデルの不⼀致の尺度:モデルの不⼀致の尺度ベクトルをyで期待値をとる

Slide 9

Slide 9 text

Deterministic Neural Networks with Inductive Biases Capture Epistemic and Aleatoric Uncertainty アンサンブルのような複雑さや計算コストを必要とせずに、偶然の不確実性と認識 の不確実性を推定するsingle-forward-pass な⽅法の提案 決定論的なNNで single-forward-passによる不確実性の定量化⼿法は存在する。しかし、 訓練⽅法の⼤幅な変更、特殊な出⼒層のために追加のハイパーパラメータが必要 OoDサンプルに対する任意のソフトマックスエントロピーの値は、認識の不確実性を 確実に捉えることができない。また、特徴崩壊( feature collapse )が起こる 特徴崩壊を防ぐために、感度と平滑性の制約を与えたResNet+Spectral Normalization を⽤いて、出⼒層直前の特徴空間の密度推定値から認識の不確実性を推定 ディープアンサンブルや他のsingle-forward-passなアプローチより⾼品質な不確実性 を推定 Jishnu Mukhoti, Andreas Kirsch, Joost van Amersfoort, Philip H.S. Torr, Yarin Gal 要約 背景 課題 ⽅法 結果 #UQ:単⼀決定論的⼿法

Slide 10

Slide 10 text

特徴崩壊( feature collapse ) • 特徴空間でiD(in Distribution)のサンプルにOoDが重なること(d 左, 中央) • 特徴空間の密度推定による認識の不確実性の推定の失敗に 解決策:特徴空間に感度 (sensitivity)と平滑性 (smoothness)を課すことでこの問題を緩和 Deterministic Neural Networks with Inductive Biases Capture Epistemic and Aleatoric Uncertainty 右: 提案(ResNet+SN) OoDとiDが分離できている bi-Lipschitz制約 sensi3vity smoothness : residual connections(ResNets) : Spectral Normalization (Miyato et al., 2018) Miyato, T., Kataoka, T., Koyama, M., and Yoshida, Y. Spectral normalization for generative adversarial networks. In International Conference on Learning Representations, 2018. 制約を満たすために

Slide 11

Slide 11 text

認識の不確実性の定量化 • 出⼒層前の特徴空間で各クラスごとに多変量ガウスのパラメータ推定 • 対数周辺尤度を⽤いて評価 • ⾼密度:iDサンプル,低密度:OoDサンプル 偶然の不確実性の定量化 • ソフトマックス出⼒のエントロピー • 値が⼩さい:データのノイズが少ない Deterministic Neural Networks with Inductive Biases Capture Epistemic and Aleatoric Uncertainty 多変量 ガウス分布 紺)偶然の不確実性が⾼い 分類境界の付近 紺)認識の不確実性が⾼い 訓練データのない領域 周辺尤度 ラベル分布

Slide 12

Slide 12 text

Deterministic Neural Networks with Inductive Biases Capture Epistemic and Aleatoric Uncertainty 感度の制約を満たすResNetと平滑性を満たすSpectral Normalization の有⽤性を⽐較 結果:⽚⽅、両⽅⽤いない場合に⽐べ、 両⽅⽤いた⽅が不確実性と分類性能が最も⾼かった アンサンブルには、データセット次第で不確実性と分類性能で負けている

Slide 13

Slide 13 text

Deep Deterministic Uncertainty for Semantic Segmentation 特徴空間の密度を⽤いて不確実性を推定する⼿法のDeep Determinis4c Uncertainty (DDU) をDeepLab-v3+アーキテクチャを⽤いてSeman4c Segmenta4onに応⽤ Seman4c Segmenta4onは、クラスの不均衡を伴うアプリケーションであり、信頼性の⾼ い認識の不確実性の推定が必要 DDUは、モデルに1回通すだけで、認識の不確実性と偶然の不確実性を分けて推定可能 アンサンブルやMC Dropoutのようなmul4-forward passを必要とする⽅法は、 Seman4c Segmenta4onのようにモデルが⼤規模なアプリケーションで採⽤するには⾼コスト DDU をDeepLab-v3+アーキテクチャに適応して⽐較実験 DDUがMC Dropoutやアンサンブルよりも不確実性の定量化が改善され、かつ計算速度が ⼤幅に削減 Jishnu Mukho4, Joost van Amersfoort, Philip H.S. Torr, Yarin Gal 要約 背景 課題 ⽅法 結果 #UQ:単⼀決定論的⼿法

Slide 14

Slide 14 text

Deep DeterminisEc Uncertainty for SemanEc SegmentaEon 提案⼿法の構成 P10と同じ DeepLab-v3+ 各ピクセル

Slide 15

Slide 15 text

• 評価指標 p(accurate-certain):モデルが予測に確信を持ったうえで、予測が正確である確率 p(uncertain-inaccurate):モデルが不確かな予測に対して不確かである確率 PAVPU:デルが正確な予測に確信を持っているか、不正確な予測に不確実性を持っ ているかの確率 良いモデルは3つの指標すべて⾼い値を持つ 注意:これらの指標は、不確実性の閾値に依存 Deep Deterministic Uncertainty for Semantic Segmentation

Slide 16

Slide 16 text

Deep Deterministic Uncertainty for Semantic Segmentation MCドロップアウト アンサンブル 認識の 不確実性 偶然の 不確実性 認識の 不確実性 認識の 不確実性 両⽅ 両⽅ 不確実性が⾼い 提案⼿法は推論時間が短い

Slide 17

Slide 17 text

DetecEng OODs as datapoints with High Uncertainty 認識の不確実性か偶然の不確実性を⽤いるOOD検知⼿法のアンサンブルを提案 DNNは、データ分布外の⼊⼒(OOD)に対して⾮常に⾼い信頼性をもって誤った予測 を⾏うことが知られている ⾃律⾛⾏、航空管制、医療診断などの⾼信頼性システムにDNNを採⽤する際の重要な 課題の⼀つ 既存の⽅法は、⽚⽅の不確実性を⽤いた⼿法で得⼿不得⼿がある 既存の検出能⼒の違いを⽰し、⾼い不確実性を持つ⼊⼒をOOD検知するアンサンブル ⼿法 複数のDNNアーキテクチャを⽤いて画像データセットの実験を⾏い、ほとんどのケー スで最先端の結果を得る Ramneet Kaur, Susmit Jha, Anirban Roy Sangdon Park, Oleg Sokolsky, Insup Lee 要約 背景 課題 ⽅法 結果 #OOD/Anomaly detec4on

Slide 18

Slide 18 text

既存⼿法:偶然の不確実性または認識の不確実性のいずれかのデータ点をOOD検出 Detecting OODs as datapoints with High Uncertainty 認識の不確実性を持つサンプル検出 (a) マハラノビス距離:分布内データ密度から遠く離れたサンプルの検出が可能 (b) 主成分分析(PCA) :再構成誤差を利⽤する⽅法 偶然の不確実性を持つサンプル検出 (c)最⼤ソフトマックス確率:予測ソフトマックス確率と⼀様分布の間のKLDの指標 (d) DkNN:DNNの各層の特徴表現において、k近傍のラベルの⼀致度より検出 最終層の 特徴空間

Slide 19

Slide 19 text

以下のOOD検出器のアンサンブル(各指標の線形和)を提案 偶然の不確実性の⾼いサンプル検出 • 予測エントロピーが閾値以上の場合、OODサンプルとする 認識の不確実性の⾼いサンプル検出 • 特徴空間での各クラスの確率密度関数の最⼤値が閾値以下の場合、OODサンプルとする 以下を満たす不確実性のサンプルを検出する⽬的 AAACtnichVFNT9RAGH4oqFBAVrmQeGncQPDgZspBCYmE6MUjCy6QbJem7c6WCdOPtLMboOkf8A948CQJMcYf4A/w4h/gwMGrhHCEhIsH3+02ESTq23TmeZ95n3eemXFjKVLF2MmQNjxy5+690TF9fGLy/lTlwcONNOomHm94kYySLddJuRQhbyihJN+KE+4EruSb7u6r/vpmjyepiMI3aj/mrcDxQ9ERnqOIsit1q6k/tdJuYGfihZlvZ6GdeXluxJQbViDaxl5uWDLyaeAdNX+dtxLh76gny1abS+XYmZNP6lbLrlRZjRVh3AZmCaooYzWqfISFNiJ46CIARwhFWMJBSl8TJhhi4lrIiEsIiWKdI4dO2i5VcapwiN2l0aesWbIh5f2eaaH2aBdJf0JKA7PsmH1iF+wb+8zO2M+/9sqKHn0v+zS7Ay2P7am3M+tX/1UFNCvs/Fb907NCB4uFV0He44Lpn8Ib6HsH7y7Wl9Zmszl2yM7J/wd2wr7SCcLepXdU52vvodMDmH9e922wsVAzn9XM+kJ15WX5FKN4hMeYp/t+jhW8xioatO8XfMcPnGqL2rbGNX9Qqg2VmmncCC3+BVmlqRk= nc X i=1 pi|x log pi|x > a AAACqHichVFNTxQxGH4YUXEUWeViwmXDBoMeNh0OYowkBC4cl49lMdt1MjN0l4bOBzPdDTCZP+Af8MAJEkIIP4MLN04m7k8wHjHx4sF3ZycxStS3afv06fu8fdq6kZKJZqw/YtwZvXvv/tgD8+Gj8ccTpSdPN5OwG3ui7oUqjLdcJxFKBqKupVZiK4qF47tKNNzd5cF+oyfiRIbBhj6IRMt3OoFsS8/RRNmlZd40ue/sl+1ULljZ+zSwUy/LuBJtzdM9YrPZ/Rc8lp0dzbO3fFso7dgpF1EiVRhk4yZv2aUKq7I8yreBVYAKiqiFpTNwbCOEhy58CATQhBUcJNSasMAQEddCSlxMSOb7AhlM0nYpS1CGQ+wujR1aNQs2oPWgZpKrPTpFUY9JWcYM+8TO2Q27YhfsC/vx11ppXmPg5YBmd6gVkT3x4dn69/+qfJo1dn6p/ulZo43XuVdJ3qOcGdzCG+p7hx9v1t+szaTP2Qn7Sv6PWZ9d0g2C3jfvdFWsHcGkD7D+fO7bYHOuar2qWqtzlcWl4ivGMIVpzNJ7z2MRK6ihTuee4xqf0TdeGjWjYbwbphojhWYSv4Xh/gRdl6TD nc max i=1 {qi(x)} < ✏ Detecting OODs as datapoints with High Uncertainty

Slide 20

Slide 20 text

DetecEng OODs as datapoints with High Uncertainty CIFAR-10で学習したモデルをOOD⽤のデータセットでそれぞれ評価 CIFAR10で学習したResNet50 の最後から2番⽬の 層の特徴空間をt-SNEで可視化 ⿊点がOODサンプル - OOD1, 2は認識の不確実性が⾼い - OOD3, 4は偶然の不確実性が⾼い

Slide 21

Slide 21 text

Detecting OODs as datapoints with High Uncertainty

Slide 22

Slide 22 text

Do We Really Need to Learn Representations from In- domain Data for Outlier Detection? ImageNetをResNet-50 で Sim-CLRv2アルゴリズムを⽤いて学習し、特徴抽出器とし て利⽤する2段階の教師なし異常検知アルゴリズムを提案 2段階に基づく⼿法が、教師なし外れ値検出で最⾼性能 ⾃⼰教師あり学習アルゴリズムを利⽤して、分布内データの特徴抽出器を学習し、特 徴空間に単純な外れ値検出器を適⽤ ドメインごとに外れ値検出のために特徴抽出器を学習するコストが⾼い ドメイン内データに⽤いずに、事前学習済みネットワークを普遍的な特徴抽出器とし て使⽤。2段階⽬は、簡単な外れ値検出器 様々な外れ値検出ベンチマークにおいて、従来の2段階法と⽐較し、外れ値検出には ドメイン内データからの表現学習は必要ないことが⽰された 要約 背景 課題 ⽅法 結果 Zhisheng Xiao, Qing Yan, Yali Amit #OOD/Anomaly detection

Slide 23

Slide 23 text

教師なし外れ値検出のSoTAアプローチ • First Stage 分布内データで特徴を⾃⼰教師あり学習(ex: contrastive loss) • Second Stage 学習したネットワークの特徴空間内で外れ値検出を⾏う - ノンパラメトリック検出器:One-class SVM, Kernel Density Estimation (KDE) - パラメトリック検出器:Mahalanobis distance 外れ値検出はサイドタスクであることが多く、メインタスクの前に外れ値がフィルタリングさ れることを考えるとFirst Stage が重たい。 提案:分布内データを⽤いないで⼤規模データ( ImageNet )で特徴表現を⾃⼰教師あり学習 ( Sim-CLRv2 )をおこなう。Second Stage はそのまま。 Do We Really Need to Learn Representations from In- domain Data for Outlier Detection? Sehwag, V., Chiang, M., and Mittal, P. Ssd: A unified framework for self-supervised outlier detection. In International Conference on Learning Representations, 2021. Sohn, K., Li, C.-L., Yoon, J., Jin, M., and Pfister, T. Learning and evaluating representations for deep one-class classification. In International Conference on Learning Representations, 2021.

Slide 24

Slide 24 text

• 事前学習済みモデルは、教師あり学習より⾃⼰教師あり学習の⽅が精度が⾼い 著者)おそらく対照学習は、異質な画像を特徴空間内で明⽰的に押しのけるため、外れ値検出に良い 帰納バイアスを導⼊することになる。 • ドメイン内データで⾃⼰教師あり学習するか、⼤規模データで⾃⼰教師あり学習するかはトントン Do We Really Need to Learn RepresentaEons from In- domain Data for Outlier DetecEon?

Slide 25

Slide 25 text

外れ値検出に利⽤する⼿法でAUROCを⽐較(MD:マハラノビス距離) ⾃⼰教師あり学習の⼿法の⽐較 Do We Really Need to Learn Representations from In- domain Data for Outlier Detection?

Slide 26

Slide 26 text

PnPOOD : Out-Of-Distribution Detection for Text Classification via Plug and Play Data Augmentation Mrinal Rawat, Ramya Hebbalaguppe, Lovekesh Vig 要約 背景 課題 ⽅法 クラス境界に近い⾼品質な⽂章を⽣成することで、テスト時に正確なOOD検出を実現 するNLP⽤のOOD検出⽅法を提案 NLPのOODの例:会話エージェントはユーザーの質問を分類し、それに応じて対応す る。OODの場合、ユーザーの質問に適さない返答をしてしまう。OODを検知し、別対 応することでUXを向上させる。 OOD検出はCVでは研究が盛んだが、NLPの⽂章分類では⽐較的少ない 最近提案されたPlug and Play Language Modelを⽤いて、OODのサンプルを⽣成するこ とで、検出を⾏う Stanford Sentiment Treebankデータセットにおいて、より低いECEを⽰すことを⽰した。 要約 背景 課題 ⽅法 結果 #OOD/Anomaly detec4on

Slide 27

Slide 27 text

Plug and Play Language Models (PPLM) (Dathathri et al., 2020) • 事前に学習された⾔語モデル(LM)を⽤いて、モデルのパラメータを変更することな く、トピックや感情などの属性を制御したテキストを⽣成することが可能 • GPT -2のような⼤規模なモデルをFine-tuningする必要がない PnPOOD : Out-Of-Distribution Detection for Text Classification via Plug and Play Data Augmentation Dathathri, S., Madotto, A., Lan, J., Hung, J., Frank, E., Molino, P., Yosinski, J., and Liu, R. Plug and play language models: A simple approach to controlled text generation. ICLR 2020 属性 初期指定単語 ⽂章の⽣成例

Slide 28

Slide 28 text

PnPOOD : Out-Of-Distribution Detection for Text Classification via Plug and Play Data Augmentation OODの検出⽅法 • Kクラス確率ベクトルの最⼤値が閾値以下でOODと判定 損失関数 AAAEG3icjZFNaxNBGMefJr7UaG2qF0EPg6WSYgiTHrQIQrEtCFaatqYtZOIyu5kkQ3dn191JSTrsF/ALeBAPCiLi2U/Qi4jXHvoRxGMFLx58stm+Y3WWnXme/8z/md/M2IErI03p7lAme+78hYvDl3KXr4xcHc2PXVuN/E7oiKrju364bvNIuFKJqpbaFetBKLhnu2LN3pjtz69tijCSvnqme4Goe7ylZFM6XKNkjQ19ZrUcs0VLKsPDkPdi48TM47rtcNcsxA9ZRzXQL7Rhui00jw3zAxFy7YeKe8J4UklPbok4JuxFhzdIYrZtMx9bptAtkt4kYZH0yJyFFURXEyNVg8Tx8/1Uh1wqFGLmiqauHdkcHf0k9MzsfDpd6FlGEhUXSdPaJyp0J1koW22dDnVC7jLuBm1OmNPw9TGkQZXuAYzvD2AqpEIWyNM4rXSS2e/oo8yLi3NnEfeTA+JD0P/cu0iqhd6JIzGhGukDjeRY3cqP0xJNGjkdlNNgHNJW8fMfgEEDfHCgAx4IUKAxdoFDhF8NykAhQK0OBrUQI5nMC4ghh94OrhK4gqO6gX0Ls1qqKsz7NaPE7eAuLv4hOglM0B36ke7RL/QT/U5//7WWSWr0WXo42gOvCKzRlzdWfv3T5eGooX3oOpNZQxOmE1aJ7EGi9E/hDPybW6/2Vh4sT5g79B39gfxv6S7dxhOozZ/O+yWx/Bpy+ADlk9d9OlidKpXvlcpLU+Mz0+lTDMNNuA0FvO/7MAOPoQJVcDK3Mo8yTzIL2TfZ7ezX7LfB0sxQ6rkOx1p25w/IGjJd L = minimize ✓ E (x,y)⇠Dtrain ind [LCE (yin, f✓(x))] + ↵ · E (xP P LM ood )⇠DOOD out ⇥ LE f✓ xP P LM ood , U(y) ⇤ 分布内データ ⽣成されたOOD 分布内の中⼼と各⽂の埋め込みの距離を計測. 境界のデータだけにフィルタリング OOD⽣成例 ⽣成OODをエントロピー正則化で⼀様分布に近づける

Slide 29

Slide 29 text

評価:SSTを分布内データ、Multi30KおよびSNLIをOODデータ • Stanford Sentiment Treebank(SST) は、ポジティブまたはネガティブな感情を表現した 映画レビュー • SNLIは⾃然⾔語推論のための前提と仮説のデータセット • Multi30Kは英語-ドイツ語の画像説明のデータセット PnPOOD : Out-Of-Distribution Detection for Text Classification via Plug and Play Data Augmentation PPLMの有無で性能差が表れている

Slide 30

Slide 30 text

Safety & ExploraHon: A ComparaHve Study of Uses of Uncertainty in Reinforcement Learning 3つのGrid World 環境において、不確実性に基づくUADQNとDQNRPの有効性を評価 RLエージェントが外的要因により危険な⽬に遭うなど、安全性を重要視 例)急な突⾵が吹く地域での⾃動運転⾞ 確率的にリスクの⾼い状態に陥る環境において、効率的な探索と安全性を両⽴させた 強化学習アルゴリズムを開発することが不可⽋ 既存のDQNRP とUADQN を、偶然の不確実性(安全性)と認識の不確実性(効率的な 探索)を評価する3つの環境で実験 テストしたモデルと環境において、 DQNRPは疎な報酬と稀な解を持つ環境に有効 UADQNはリスクのある確率的な環境において安全に探索することが可能 ただし、リスクの適切な罰⾦に依存 Varun Tekur, Javin Pombra, Rose Hong, Weiwei Pan 要約 背景 課題 ⽅法 結果 # RL

Slide 31

Slide 31 text

安全性や探索において不確実性が果たす役割 偶然の不確実性:エージェントの安全性 認識の不確実性:報酬が少ない環境でのエージェントの探索 Safety & Exploration: A Comparative Study of Uses of Uncertainty in Reinforcement Learning (DQNRP) Deep Q Network With Randomized Priors UADQN DQNRP: Osband, I., Aslanides, J., and Cassirer, A. Randomized prior functions for deep reinforcement learning, 2018. UADQN: Clements, W. R., Delft, B. V., Robaglia, B.-M., Slaoui, R. B., and Toth, S. Estimating risk and uncertainty in deep reinforcement learning, 2020. Quantile regression based distributional RL 偶然の不確実性が⾼いと⾏動価値を下げる AAADEnichVFLaxRBEK4ZX3F8ZDUXwcvgEokQl949+EQIycWTZBM3CWyvQ0+ndrdJz4OZ3sU4zB/wLHjwpCAi4h/wJrl48OohP0E8RvDiwZrZAd0EtZrprvqqvm+quv1Yq9Qwtm/Zx46fOHlq5rRz5uy587O1Cxc30miUSOzISEfJli9S1CrEjlFG41acoAh8jZv+zkqR3xxjkqoofGh2Y+wFYhCqvpLCEOTV3vOuw4ORl6WLbiY8lef3psPrXJPatnB5qgaB8DJu8LGhpEZhokRJN8/du277D0pRGrg8EGYohc4e5Fxj3yxM6y663EcjHmWt/LA0xjQ3BqV0keeJGgzNNYf3vFqdNVhp7lGnWTl1qGw1qr0BDtsQgYQRBIAQgiFfg4CUVheawCAmrAcZYQl5qswj5OAQd0RVSBWC0B3aBxR1KzSkuNBMS7akv2j6EmK6MM++sLfsgH1i79hX9vOvWlmpUfSyS6c/4WLszT69tP7jv6yATgPD36x/9mygD7fKXhX1HpdIMYWc8MdPnh+s31mbz66yV+wb9f+S7bM9miAcf5ev27j2Ahx6gObh6z7qbLQazRuNZrtVX1qunmIGLsMVWKD7vglLcB9WoQPSmrNuW8vWiv3M/mB/tPcmpbZVceZgyuzPvwAGHsv3 µs,ai = µs,ai aleatoric ; Qs,ai ⇠ N µs,ai AAADEnichVFLaxRBEK4ZX3F8ZDUXwcvgEokQl949+EQIycWTZBM3CWyvQ0+ndrdJz4OZ3sU4zB/wLHjwpCAi4h/wJrl48OohP0E8RvDiwZrZAd0EtZrprvqqvm+quv1Yq9Qwtm/Zx46fOHlq5rRz5uy587O1Cxc30miUSOzISEfJli9S1CrEjlFG41acoAh8jZv+zkqR3xxjkqoofGh2Y+wFYhCqvpLCEOTV3vOuw4ORl6WLbiY8lef3psPrXJPatnB5qgaB8DJu8LGhpEZhokRJN8/du277D0pRGrg8EGYohc4e5Fxj3yxM6y663EcjHmWt/LA0xjQ3BqV0keeJGgzNNYf3vFqdNVhp7lGnWTl1qGw1qr0BDtsQgYQRBIAQgiFfg4CUVheawCAmrAcZYQl5qswj5OAQd0RVSBWC0B3aBxR1KzSkuNBMS7akv2j6EmK6MM++sLfsgH1i79hX9vOvWlmpUfSyS6c/4WLszT69tP7jv6yATgPD36x/9mygD7fKXhX1HpdIMYWc8MdPnh+s31mbz66yV+wb9f+S7bM9miAcf5ev27j2Ahx6gObh6z7qbLQazRuNZrtVX1qunmIGLsMVWKD7vglLcB9WoQPSmrNuW8vWiv3M/mB/tPcmpbZVceZgyuzPvwAGHsv3 µs,ai = µs,ai aleatoric ; Qs,ai ⇠ N µs,ai , 2 2 epistemic アンサンブル⽅法(認識の不確実性) 状態, ⾏動の豊富なデータ領域ではメンバー間で意⾒⼀致 訓練データのない領域では不⼀致を起こす 偶然の不確実性と認識の不確実性を扱う リスク回避

Slide 32

Slide 32 text

• Gridworld with stochastic falls • Gridworld with stochastic rewards (偶然の不確実性) • Chain Environment (認識の不確実性の有効性) Safety & ExploraHon: A ComparaHve Study of Uses of Uncertainty in Reinforcement Learning 確率5%で崖に落ちてStartからやり直し 報酬設計 1stepにつき-1 Goal +10 崖落下 -15 (0の場合も実験) G 上記との違い 崖落下 -5 A G 疎な報酬と稀な解の環境 毎ステップ1⾏下がる(N−1ステップで1試⾏) エージェントの⾏動{左, 右} 報酬設計) 左:0,右:-0.01/(N - 1), Goal +1 最⾼報酬0.99 N N A

Slide 33

Slide 33 text

• Gridworld with stochastic falls • Gridworld with stochastic rewards (偶然の不確実性) • Chain Environment (認識の不確実性の有効性) Safety & Exploration: A Comparative Study of Uses of Uncertainty in Reinforcement Learning 最⾼報酬/落下回数 3 trials 10000 .mesteps

Slide 34

Slide 34 text

Implicit Ensemble Training for Efficient and Robust Multiagent Reinforcement Learning 訓練時とテスト時の獲得報酬の隔たりを減らす暗黙的アンサンブルアプローチを提案 マルチエージェントの競争的なシナリオでは、他のエージェントの⽅策の変化によって訓 練とテストの間で分布の不⼀致が起こる 訓練時に最適化された⽅策は、テスト時には最適ではないことが多い アンサンブルは、訓練からテストへの性能低下を緩和するための有効なアプローチ ただし、アンサンブルは計算量とメモリ消費量が⼤幅に増加 深層潜在変数モデルとマルチタスク強化学習を組み合わせた新しい暗黙的アンサンブル学 習(IET)アプローチを提案 アンサンブル学習のロバスト性を向上、計算問題に対処 2プレイヤーのターン制のボードゲームで評価し、訓練とテストで報酬の乖離が少ない Macheng Shen,Jonathan P. How 要約 背景 課題 ⽅法 結果 # RL

Slide 35

Slide 35 text

既存⼿法:アンサンブル学習 各エージェントが複数の⽅策を持つ。または、過去の⽅策の複数のコピーを保持 そこから各エージェントの1つの⽅策をサンプリングして、互いに対戦 Implicit Ensemble Training for Efficient and Robust Multiagent Reinforcement Learning アンサンブルメンバー サンプリングk アンサンブルRL ⽬的関数 選ばれたアンサンブルメンバーk はエピソード中最適化される ⼀⽅で、K-1のアンサンブルメンバーは、最適化されず、サンプル効率がK倍に悪くなる AAACgHichVG7TsMwFD0N7/AqsCB1QVSgshSHARATEgsjtBSQ2hIlwQWraRIlbiWIOrDyAwxMICGEWOAbWPgBBj4BMYLEwsBtGgkBAq5l+/j4nutj2/RsEUjGHhNKR2dXd09vn9o/MDg0nBwZ3Qzcum/xguXarr9tGgG3hcMLUkibb3s+N2qmzbfM6kprf6vB/UC4zoY88Hi5Zuw5oiIsQxKlJ1OlolrRw5Lc59LQQ9HcCTPVmWZzUC2V9WSaZVkUEz+BFoM04lhzk5coYRcuLNRRA4cDSdiGgYBaERoYPOLKCInzCYlon6MJlbR1yuKUYRBbpXGPVsWYdWjdqhlEaotOsan7pJzAFHtgV+yF3bNr9sTef60VRjVaXg5oNtta7unDx+P5t39VNZol9j9Vf3qWqGAx8irIuxcxrVtYbX3j8OQlv5SbCqfZOXsm/2fskd3RDZzGq3WxznOnUOkDtO/P/RNszmW1+ay2PpdeXoy/ohcpTCJD772AZaxiDQU69wiXuMGtoigZZVbR2qlKItaM4UsoSx/aypNC f ✓(k) i AAACgHichVE9S8NAGH4av+NX1UVwKRalLvXioOIkuAgu2loV2hqSeNXDNAnJtaChg6t/wMFJQURc9De4+Acc/AniqODi4Ns0ICrqe9zdc8+9z3vP3ZmeLQLJ2GNCaWvv6Ozq7lF7+/oHBpNDwxuBW/MtXrBc2/W3TCPgtnB4QQpp8y3P50bVtPmmub/U3N+scz8QrrMuDzxerhq7jqgIy5BE6cmxUlGt6GFJ7nFp6KFobIeZlalGo18tlfVkmmVZFKmfQItBGnGsuslLlLADFxZqqILDgSRsw0BArQgNDB5xZYTE+YREtM/RgEraGmVxyjCI3adxl1bFmHVo3awZRGqLTrGp+6RMYYI9sCv2wu7ZNXti77/WCqMaTS8HNJstLff0wePR/Nu/qirNEnufqj89S1QwH3kV5N2LmOYtrJa+fnjykl/ITYST7Jw9k/8z9sju6AZO/dW6WOO5U6j0Adr35/4JNmay2mxWW5tJL87HX9GNMYwjQ+89h0UsYxUFOvcIl7jBraIoGWVa0VqpSiLWjOBLKAsfmeqTIg== f ✓(K) i AAACgHichVG7TsMwFD0N7/AqsCB1QVSgshSHARATEgsjtBSQ2hIlwQWraRIlbiWIOrDyAwxMICGEWOAbWPgBBj4BMYLEwsBtGgkBAq5l+/j4nutj2/RsEUjGHhNKR2dXd09vn9o/MDg0nBwZ3Qzcum/xguXarr9tGgG3hcMLUkibb3s+N2qmzbfM6kprf6vB/UC4zoY88Hi5Zuw5oiIsQxKlJ1OlolrRw5Lc59LQQ9HcCTPaTLM5qJbKejLNsiyKiZ9Ai0Eacay5yUuUsAsXFuqogcOBJGzDQECtCA0MHnFlhMT5hES0z9GESto6ZXHKMIit0rhHq2LMOrRu1QwitUWn2NR9Uk5gij2wK/bC7tk1e2Lvv9YKoxotLwc0m20t9/Th4/H827+qGs0S+5+qPz1LVLAYeRXk3YuY1i2str5xePKSX8pNhdPsnD2T/zP2yO7oBk7j1bpY57lTqPQB2vfn/gk257LafFZbn0svL8Zf0YsUJpGh917AMlaxhgKde4RL3OBWUZSMMqto7VQlEWvG8CWUpQ9lNJMI f ✓(1) i … アンサンブルの場合 ⽅策

Slide 36

Slide 36 text

⽅策ネットワーク モジュラーネットワーク(Yang et al., 2020) パラメータ数を削減 Implicit ensemble training Implicit Ensemble Training for Efficient and Robust Multiagent Reinforcement Learning メンバーのカテゴリ変数を連続の潜在変数に緩和 AAACd3ichVHLSsNAFD2N7/iqdSO4UCxK3ZSJCy2uBDcutbUqNKUkcaxD0yQkabEt/oA/4EIQFKSKn+HGH3DRTxCXCiK48CYNiIp6h5k5c+aeO2dmdMcUns9YJyb19Pb1DwwOycMjo2Pj8YnEjmfXXIPnDdu03T1d87gpLJ73hW/yPcflWlU3+a5eWQ/2d+vc9YRtbfsNhxerWtkSB8LQfKJK8YRakMullup44jjVXByV1WIpnmRpFsbsT6BEIIkoNu14Gyr2YcNADVVwWPAJm9DgUStAAYNDXBEt4lxCItznOIZM2hplccrQiK3QWKZVIWItWgc1vVBt0CkmdZeUs5hnD+yGPbN7dsse2fuvtVphjcBLg2a9q+VOafxkKvf6r6pKs4/DT9Wfnn0cIBN6FeTdCZngFkZXX2+ePudWs/OtBXbJnsj/BeuwO7qBVX8xrrZ49gwyfYDy/bl/gp2ltLKcVraWkmuZ6CsGMY05pOi9V7CGDWwiT+ce4RxtXMfepBlpQUp1U6VYpJnEl5CUD8E0kBc= g (z) AAACdHichVHLTsJAFD3UdxVB3ZjogkgwrsiUhRJXJG5cAoqQACFtHWRiaZu2kCDhB/wBF640EmP8DDf+gAs/wbjU6MaFl9LEKFFvM50zZ+65c2auZhvC9Rh7DElj4xOTU9Mz8uxceD4SXVg8cK2Wo/OCbhmWU9JUlxvC5AVPeAYv2Q5Xm5rBi9rxzmC/2OaOKyxz3+vYvNpUj0xRF7rqEVWLRipluVHrVuyG6IXlSrUWjbMk8yM2CpQAxBFE1opeo4JDWNDRQhMcJjzCBlS49JWhgMEmrooucQ4h4e9z9CCTtkVZnDJUYo/pf0SrcsCatB7UdH21TqcYNBxSxpBgD+yGvbB7dsue2Mevtbp+jYGXDs3aUMvtWuR0ee/9X1WTZg+NL9Wfnj3Ukfa9CvJu+8zgFvpQ3z45e9nbzie66+ySPZP/C/bI7ugGZvtV7+d4/hwyNUD5+dyj4CCVVDaTSi4Vz6SDVkxjBWvYoPfeQga7yKLg9+QcV+iH3qRVKS4lhqlSKNAs4VtIyU+VnY8k h AAACbXichVHLSsNAFD2NrxofrYogKCIWH6sy6ULFVcGNy1ZtK7alJHGsQ9MkJGlBiz/gWnAhCgoi4me48Qdc9BPEhYsKblx4mwZERb3DzJw5c8+dMzOabQjXY6wZkrq6e3r7wv3ywODQcCQ6Mpp1rZqj84xuGZazrakuN4TJM57wDL5tO1ytagbPaZW19n6uzh1XWOaWd2DzYlUtm2JP6KpH1E4hL1slMSQXiqVojMWZHzM/gRKAGIJIWdEbFLALCzpqqILDhEfYgAqXWh4KGGziimgQ5xAS/j7HEWTS1iiLU4ZKbIXGMq3yAWvSul3T9dU6nWJQd0g5gzn2yG5Ziz2wO/bE3n+t1fBrtL0c0Kx1tNwuRY4nNt/+VVVp9rD/qfrTs4c9rPheBXm3faZ9C72jrx+etjZXN+Ya8+yKPZP/S9Zk93QDs/6qX6f5xhlk+gDl+3P/BNlEXFmKK+lELLkSfEUYk5jFIr33MpJYRwoZOtfECc5xEXqRxqUpabqTKoUCzRi+hLTwAfKujJw= oi AAACbXichVHLSsNAFD2NrxofrYogKCIWH6sy6ULFVcGNy1ZtK7alJHGsQ9MkJGlBiz/gWnAhCgoi4me48Qdc9BPEhYsKblx4mwZERb3DzJw5c8+dMzOabQjXY6wZkrq6e3r7wv3ywODQcCQ6Mpp1rZqj84xuGZazrakuN4TJM57wDL5tO1ytagbPaZW19n6uzh1XWOaWd2DzYlUtm2JP6KpH1E4hL6slMSQXiqVojMWZHzM/gRKAGIJIWdEbFLALCzpqqILDhEfYgAqXWh4KGGziimgQ5xAS/j7HEWTS1iiLU4ZKbIXGMq3yAWvSul3T9dU6nWJQd0g5gzn2yG5Ziz2wO/bE3n+t1fBrtL0c0Kx1tNwuRY4nNt/+VVVp9rD/qfrTs4c9rPheBXm3faZ9C72jrx+etjZXN+Ya8+yKPZP/S9Zk93QDs/6qX6f5xhlk+gDl+3P/BNlEXFmKK+lELLkSfEUYk5jFIr33MpJYRwoZOtfECc5xEXqRxqUpabqTKoUCzRi+hLTwAdZajI4= ai episodeごとにサンプル 暗黙的なアンサンブルメンバー L次元の連続潜在変数 AAACbXichVHLSsNAFD2NrxofrYogKCIWH6sy6ULFVcGNy1ZtK7alJHGsQ9MkJGlBiz/gWnAhCgoi4me48Qdc9BPEhYsKblx4mwZERb3DzJw5c8+dMzOabQjXY6wZkrq6e3r7wv3ywODQcCQ6Mpp1rZqj84xuGZazrakuN4TJM57wDL5tO1ytagbPaZW19n6uzh1XWOaWd2DzYlUtm2JP6KpH1E4hL1slMSQXiqVojMWZHzM/gRKAGIJIWdEbFLALCzpqqILDhEfYgAqXWh4KGGziimgQ5xAS/j7HEWTS1iiLU4ZKbIXGMq3yAWvSul3T9dU6nWJQd0g5gzn2yG5Ziz2wO/bE3n+t1fBrtL0c0Kx1tNwuRY4nNt/+VVVp9rD/qfrTs4c9rPheBXm3faZ9C72jrx+etjZXN+Ya8+yKPZP/S9Zk93QDs/6qX6f5xhlk+gDl+3P/BNlEXFmKK+lELLkSfEUYk5jFIr33MpJYRwoZOtfECc5xEXqRxqUpabqTKoUCzRi+hLTwAfKujJw= oi AAACbXichVHLSsNAFD2NrxofrYogKCIWH6sy6ULFVcGNy1ZtK7alJHGsQ9MkJGlBiz/gWnAhCgoi4me48Qdc9BPEhYsKblx4mwZERb3DzJw5c8+dMzOabQjXY6wZkrq6e3r7wv3ywODQcCQ6Mpp1rZqj84xuGZazrakuN4TJM57wDL5tO1ytagbPaZW19n6uzh1XWOaWd2DzYlUtm2JP6KpH1E4hL6slMSQXiqVojMWZHzM/gRKAGIJIWdEbFLALCzpqqILDhEfYgAqXWh4KGGziimgQ5xAS/j7HEWTS1iiLU4ZKbIXGMq3yAWvSul3T9dU6nWJQd0g5gzn2yG5Ziz2wO/bE3n+t1fBrtL0c0Kx1tNwuRY4nNt/+VVVp9rD/qfrTs4c9rPheBXm3faZ9C72jrx+etjZXN+Ya8+yKPZP/S9Zk93QDs/6qX6f5xhlk+gDl+3P/BNlEXFmKK+lELLkSfEUYk5jFIr33MpJYRwoZOtfECc5xEXqRxqUpabqTKoUCzRi+hLTwAdZajI4= ai メンバーはc に より、どのモ ジュールを使う かの重みが決定 n層 m個 … Yang, R., Xu, H., Wu, Y., and Wang, X. Multi-task reinforcement learning with soft modularization. arXiv preprint arXiv:2003.13661, 2020.

Slide 37

Slide 37 text

• 2プレイヤーのターンベースボードゲームで評価 • 「Connect Four」「Leduc Hold'em」「Texas Hold'em (Limit)」 Implicit Ensemble Training for Efficient and Robust Multiagent Reinforcement Learning 提案⼿法が訓練とテストで報酬にギャップがないと主張。んー Connect Four Texas Hold'em

Slide 38

Slide 38 text

Diverse and Amortized Counterfactual Explanations for Uncertainty Estimates 不確実性推定値の解釈⼿法δ-CLUE の解の冗⻑性を減らす⼿法を提案 予測の不確実性の原因となる、⼊⼒の特徴を理解したいニーズがある。CLUE は不確実 性の⾼い⼊⼒の近傍から不確実性の低い仮想の⼊⼒値を求め、その差分特徴からどう して不確実性が⾼いかを求める⼿法 CLUE は各⼊⼒につき計算する必要があった。 δ-CLUE は、⼊⼒値のδ近傍内からランダ ムに複数サンプルした⼊⼒値集合に対してCLUE を求めるように改良されたが、冗⻑な 解が得られる 冗⻑な解が減るように⽬的関数に多様性を図る尺度の項を加えた∇-CLUE ⼊⼒集合を⼀度推論し、不確実性の⾼い、低い集合に分け、それらを⽤いて計算効率 をあげたGLAM-CLUE(Global Amortized CLUE )を提案した ⼿法を実験で検証した結果、∇-CLUEとGLAM-CLUEはCLUEの⽋点を補っていることがわ かった 要約 背景 課題 ⽅法 結果 Dan Ley, Umang Bhatt, Adrian Weller #Uncertainty Analysis

Slide 39

Slide 39 text

CLUE ( Counterfactual Latent Uncertainty Explanation )とは 「⼊⼒値のどの特徴が予測を不確実にするのか?」を明らかにできる不確実性の解釈⼿法 損失関数は、⼊⼒値 に近い中で、不確実性が下がるような⼊⼒値 を求めるよう に設計。ただし、⼊⼒値が⾼次元の場合、探索が困難なため、深層⽣成モデルのVAEを⽤い て低次元空間内で探索を⾏なっている。 Diverse and Amortized Counterfactual Explanations for Uncertainty Estimates AAAChXichVFNLwNBGH66vtdXcZG4NBriopkVQVyIRuLgQKtI2qbZXVM29iu70wabXh38AQcnEhHhyh9w8Qcc/ARxJHFx8Ha7iSB4JzPzzDPv884zM5prGr5g7DEmNTW3tLa1d8idXd09vfG+/nXfqXg6z+mO6Xibmupz07B5ThjC5Juux1VLM/mGtpuu729Uuecbjr0m9l1etNRt2ygbuiqIKsUThbxcsFSxo5WDvVopCLFnBenl3GKtJheKpXiSpVgYiZ9AiUASUaw48QsUsAUHOiqwwGFDEDahwqeWhwIGl7giAuI8Qka4z1GDTNoKZXHKUIndpXGbVvmItWldr+mHap1OMal7pExghD2wS/bC7tkVe2Lvv9YKwhp1L/s0aw0td0u9R4PZt39VFs0CO5+qPz0LlDETejXIuxsy9VvoDX314PglO5sZCUbZGXsm/6fskd3RDezqq36+yjMnkOkDlO/P/ROsT6SUqZSyOpGcX4i+oh1DGMYYvfc05rGEFeTo3ENc4wa3Ups0Lk1KU41UKRZpBvAlpLkP8S2WCw== xCLUE AAACd3ichVG7SgNBFD1Z3+sraiNYKAbFKty1ULESbSyTaFRIQthdJ7q4L3YnQQ3+gD9gIQgKEsXPsPEHLPwEsVQQwcKbzYKoqHeYmTNn7rlzZsbwbSuURA8Jpa29o7Oru0ft7esfGEwODW+EXjUwRd70bC/YMvRQ2JYr8tKSttjyA6E7hi02jb2V5v5mTQSh5bnr8sAXJUffca2KZeqSqXJyuFhQi44ud41Kff+oTGqxVE6mKE1RTPwEWgxSiCPjJRsoYhseTFThQMCFZGxDR8itAA0En7kS6swFjKxoX+AIKmurnCU4Q2d2j8cdXhVi1uV1s2YYqU0+xeYesHICU3RP1/RMd3RDj/T+a616VKPp5YBno6UVfnnweHTt9V+Vw7PE7qfqT88SFSxEXi327kdM8xZmS187PHleW8xN1afpgp7Y/zk90C3fwK29mJdZkTuFyh+gfX/un2BjNq3NpbXsbGppOf6KboxhEjP83vNYwioyyPO5+zhDA1eJN2VcmVZmWqlKItaM4Eso2gfkUpCw x0 J. Antora ́n, U. BhaS, T. Adel, A. Weller, and J. M. Herna ́ndez-Lobato. GeXng a CLUE: A method for explaining uncertainty esYmates. In Interna5onal Conference on Learning Representa5ons, 2021. 不確実性の⾼かった要因の部分に⾊が付いている 損失関数

Slide 40

Slide 40 text

δ-CLUE とは CLUEに⽐べ、δ-近傍内で仮想サンプルを多数⽣成し、CLUEの解を⼀気に複数求める⼿法 冗⻑な解が多いとされている Diverse and Amortized Counterfactual Explanations for Uncertainty Estimates 距離d が離れるほど正しいクラスから変化 δ-近傍内でのサンプル⽅法 D. Ley, U. Bhatt, and A. Weller. δ-CLUE: Diverse sets of explanations for uncertainty estimates. In ICLR Workshop on Security and Safety in Machine Learning Systems, 2021.

Slide 41

Slide 41 text

Diverse and AmorEzed Counterfactual ExplanaEons for Uncertainty EsEmates 提案⼿法 冗⻑な解が多い ⼀点ずつしか求められない 冗⻑な解を減らし、計算速度をあげた AAADLnicnVHNahRBEK6ZRI2jMWu8CLkMLpGIuvbkoCEQCCYHDx7y4yaB7c3Q09uz22zPDzO9C8kwL+ALePBkIITgJe/gRR9AIQfxqniM4MWDtbMj/gQjWE13VX1dX/XX3V6sZKoJOTbMkdFz5y+MXbQuXR6/MlG5OrmRRr2EizqPVJRseSwVSoairqVWYitOBAs8JTa97tJgf7MvklRG4RO9E4tmwNqh9CVnGiG38oY2LBow3eFMZY9zqoSvZwrA87Pd3M2c/I5NVSvSKfpf8G5OE9nu6FsLd6nC81rMzZZze/k/OtymfsI41iFk07QXuJlccPLtIj1Lm/zRYdyiTbdSJTVSmH06cMqgCqWtRJUDoNCCCDj0IAABIWiMFTBIcTTAAQIxYk3IEEswksW+gBws5PawSmAFQ7SLaxuzRomGmA96pgWb4ykKZ4JMG6bJW3JITshr8pJ8It/+2isregy07KD3hlwRuxNPr69//ScrQK+h85N1pmYNPswVWiVqjwtkcAs+5Pd3n52sz69NZzfJHvmM+l+QY/IKbxD2v/D9VbH2HCz8AOfP5z4dbMzWnPs1Z3W2uviw/IoxmIIbMIPv/QAW4RGsQB24cc+oG9uGax6Z78z35odhqWmUnGvwm5kfvwNsxNkC L (z1, . . . , zk) = DD (z1, . . . , zk) + 1 k k X i=1 L (zi) AAACr3ichVFNSxtBGH5c+2G3ta56EbyEBotewmwOthQEqQhSPPi1JjQb093NJBncL3YnAbvkD/gHPPRUQUrx4n/opX+gBU/2WnpU8OLBN5uF0gTtO8zMM8+8zzvPzNihK2LJ2PmIMvrg4aPHY0/Up8/Gn09ok1O7cdCOHG44gRtEZduKuSt8bkghXV4OI255tstL9v5Kb7/U4VEsAn9HHoS86llNXzSEY0miato7s6KWa4npWbIVecnKurHa7S6ZXps42eLS6poub8j5cs70RD33fjDVjESzJRfGVbNa0/KswNLIDQM9A3lksRFoX2CijgAO2vDA4UMSdmEhplaBDoaQuCoS4iJCIt3n6EIlbZuyOGVYxO7T2KRVJWN9WvdqxqnaoVNc6hEpc5hjP9hXdsm+s1P2m93cWStJa/S8HNBs97U8rE0czmxf/1fl0SzR+qu617NEA69Tr4K8hynTu4XT13c+Hl1uv9maS16yY/aH/H9m5+wb3cDvXDknm3zrE1T6AH3wuYfBbrGgLxb0zWJ++W32FWOYxQvM03u/wjLWsAGDzj3DT1zgl6IrJWVP+dBPVUYyzTT+CUXcAqetptE= XCLUE = µ✓ (X | ZCLUE) AAAC7nichVHNahRBEK4Z/5LRmFURAoIOLpEEwtKTQyKCEAyChxyS3WwS3F6GnknvbrM9P/T0LiTDPIB5AD1IkARExcfw4gt42EcQDzms4MWDtbMDGkO0mu6u+qq+6q+7vViKRBMyMMwLFy9dvjIxaV29NnV9unTj5lYS9ZTP634kI7XjsYRLEfK6FlrynVhxFniSb3vd1VF+u89VIqJwU+/FvBmwdihawmcaIbf0gjas525KA6Y7KkhX1+pPs+wxZapt00CEdpHyWul+5qZOZlO5G+lkwf4T7mZZHvpMpmsZlbyl507TFs7hUSXaHT0/ZdGmWyqTCsnNPus4hVOGwtaj0jugsAsR+NCDADiEoNGXwCDB0QAHCMSINSFFTKEn8jyHDCzk9rCKYwVDtItrG6NGgYYYj3omOdvHUyROhUwbZskX8oEMyWfykXwlP8/tleY9Rlr2cPfGXB670wcztR//ZQW4a+j8Zv1Ts4YWPMy1CtQe58joFv6Y399/Naw9qs6mD8gx+Yb6j8iAfMIbhP3v/tsNXn0NFn6A8/dzn3W2FivOUsXZWCyvPCm+YgLuwH2Yw/dehhV4ButQx3NPjNvGXeOeGZsvzUPzzbjUNArOLThl5vtfeYW/Qw== ZCLUE = arg min z1...,zk L (z1, . . . , zk) Optimizing for Diversity:∇-CLUE 多様性を最⼤化(右表) 多様性の指標

Slide 42

Slide 42 text

A Tale Of Two Long Tails 不確実性を図る指標Variance of Gradients (VoG) を⽤いて、偶然の不確実性か認識の不 確実性が⾼いサンプルかを⾒分ける⽅法の提案 モデルが不確実なサンプルを特定し、その不確実性の原因を明らかにすることを⽬指 す。偶然の不確実性が⾼ければ、ラベルクリーニング。認識の不確実性が⾼ければ、 サンプルの追加で対処可能。 予測の不確実性の原因を特定することは重要だが、⽐較的取り組まれていない。 標準のデータ拡張を⽤いて、各サンプルをエポックごとにVoGを計算。 エポックが⼗分たってもVoGが⾼いままなら、偶然の不確実性の⾼いサンプルとする。 実験により、提案した学習の過程でうまく設計された介⼊は、異なる不確実性の原因 を特徴づけ、区別するための効果的な⽅法であることを⽰した。 Daniel D’souza, Zach Nussbaum,Chirag Agarwal,Sara Hooker 要約 背景 課題 ⽅法 結果 #Uncertainty Analysis

Slide 43

Slide 43 text

A Tale Of Two Long Tails Variance of Gradients (VoG) とは 学習の数エポックおきに同じ画像を通し、各ピクセルに対して真のクラスに対する勾配を計算した 勾配マップの、分散スコア 最終層l 前のクラスpに関する特徴を各ピクセル値で微分した勾配⾏列 ⾊チャネル⽅向に和 AAACmHichVHLSiNBFD22oxPbV5zZiG4ag+IqVCs4wVXAxehOE2OEdAzdbRkL+0V3JZBp8gPzA8MwKwUR8SNcuNEPmIWfIC4VZjOLuek0DCrqbbruqVP33DpVZQWOiCRjtwPK4Ieh4Y+ZEXV0bHxiMjv1aSfyW6HNK7bv+OGuZUbcER6vSCEdvhuE3HQth1eto7XeerXNw0j43rbsBLzumk1PHAjblEQ1sstGTTUs39mPOi6luNw1hKfFhmvKQ8vSSt09LdaqmiGFyyNtvTuuGvVGNsfyLAntJdBTkEMam372DAb24cNGCy44PEjCDkxE9NWggyEgro6YuJCQSNY5ulBJ26IqThUmsUc0NmlWS1mP5r2eUaK2aReH/pCUGubZb3bOHtg1u2B37O+rveKkR89Lh7LV1/KgMfl9uvznXZVLWeLwv+pNzxIHKCReBXkPEqZ3Cruvb3/78VBeLc3HC+yE3ZP/Y3bLrugEXvvRPt3ipV9Q6QH059f9Euws5fWVvL61lCsW0qfIYBZzWKT7/oIi1rGJCu37E5e4xo0yoxSVr8pGv1QZSDWf8SSU0j9q7JyJ S 2 RW ⇥H 数エポックごとに計算した 勾配⾏列の平均 学習序盤でのVoG 学習終盤でのVoG 勾配分散⾏列の ピクセル平均 AAACtHichVHLahRBFD1pX0lrzBg3gpvBIRI3Q3UWMQiBgAuz0jycSWBqbLrLmpki1Q+qa4bEpn/AH8jClQERce0XuPEHXAS3uhCXEdy48E5Pg4+g3qarzj11z61TVWGqVWYZO55yzpw9d/7C9Ix78dLs5bnalfl2lgyNkC2R6MTshkEmtYplyyqr5W5qZBCFWu6Ee3fH6zsjaTKVxA/tQSq7UdCPVU+JwBLl1x7wjsujwA5MlLeTe8Uq75lA5F6R3y/qPBtGfh6vesUjSrmWPbv4a7Gfp2pf6oIb1R/YW7Mu7/q1BmuyMuqngVeBBqrYSGovwfEYCQSGiCARwxLWCJDR14EHhpS4LnLiDCFVrksUcEk7pCpJFQGxezT2KetUbEz5uGdWqgXtouk3pKxjgb1nr9gJe8des8/s+1975WWPsZcDmsOJVqb+3NNr29/+q4pothj8VP3Ts0UPK6VXRd7TkhmfQkz0oyeHJ9t3thbym+yIfSH/z9kxe0sniEdfxYtNufUMLj2A9+d1nwbtpaa33PQ2lxprK9VTTOM6bmCR7vs21rCODbRo3zf4gI/45Cw73BGOnJQ6U5XmKn4LJ/4Bd3apsg== VoG = 1 N N X n=1 (VoGpixel) Chirag Agarwal and Sara Hooker. Estimating example difficulty using variance of gradients, 2020.

Slide 44

Slide 44 text

VoGを⽤いて偶然の不確実性か認識の不確実性が⾼いサンプルを分類する⽅ 法 認識の不確実性:追加の訓練データによって不確実性を低減できるかどうかで判定 偶然の不確実性:ノイズが多いので、サンプル数を増やしても不確実性が下がらない 提案⽅法 2種類 A. エポックごとにVoGが測定しVoGの変動を確認 解釈)エポックごとにVoGが⾼いままのサンプルは、偶然の不確実性が⼤きい B.ターゲットを絞った介⼊⽅法 VoGの⼤きい不確実なサンプルのみを選択的に回転のデータ拡張。 解釈)最後までデータ拡張し続けるサンプルは、偶然の不確実性が⼤きい A Tale Of Two Long Tails

Slide 45

Slide 45 text

データ拡張をしない:偶然の不確実性の多いサンプルと認識の不確実性が多いサンプルの VoGに差が⾒られず⾼いまま。 標準的なデータ拡張:偶然の不確実性はVoGが低下せず、認識の不確実性の⾼いサンプル は、 VoGが⼩さくなる傾向がある。 回転のデータ拡張:偶然の不確実性の⾼いサンプルはVoGが⾼く、学習終盤までデータ拡 張の対象として選ばれ続けたため、差が⼤きく出ている。 A Tale Of Two Long Tails 不確実性が⾼ 不確実性が低

Slide 46

Slide 46 text

Notes on the Behavior of MC Dropout MC-dropoutの振る舞いについて、理論と実験の両⾯から分析した Monte-Carlo dropout は予測の不確実性を定量化するために最も簡単な⼿法と して利⽤されている ドロップアウト層をどこに挿⼊するか、何個使⽤するか、ドロップアウト率 の選択などのアーキテクチャの選択は経験的で最適でないパフォーマンスに つながる。 MC-dropoutの振る舞いについて、理論と実験の両⾯からいくつかの観察結果 を提供 不確実性推定のためにMC-dropoutを使⽤するネットワークのアーキテクチャ 設計と学習の選択に関する直観を説明した Francesco Verdoja, Ville Kyrki 要約 背景 課題 ⽅法 結果 #Uncertainty Analysis

Slide 47

Slide 47 text

Notes on the Behavior of MC Dropout 出⼒値 single-layer linear networks MCD Dropout率:低 MCD dropout率:⾼ MC-dropout single-layer linear network ベルヌーイ分布 dropout 確率 dropout率:⾼でも分散が過⼩評価されている

Slide 48

Slide 48 text

• single-layer linear network におけるMC-dropoutの理論的解析 1. 期待値のバイアスは、⼤きなネットワークでは無視できる。 2. MCDが⽣成する事後分布の分散の⼤きさは、 dropout 確率とモデルサイズKの相互作⽤に依存。 3. 事後分布は、データ量やデータの分散に依存しない。つまり、データが多く集まっても⼩さくならない。 4. 事後分布の分散は に⽐例。推定すべき値が⼤きいほど、推定されるモデルの不確実性も⼤きくなる。 より⼤きな現実的なネットワーク上でどのように機能するかを理解するために、様々な実験を⾏った。 Notes on the Behavior of MC Dropout :モデルのサイズ :真値の平均 :dropout 確率 AAACdXichVHLSsNAFD2NrxqtjboRRCjWFld10oUWV4Ibl776gLaWJE41NE1CkhZq6Q/4Ay50o6AifoYbf8CFnyAuFbpx4W0aEC3qHWbmzJl77pyZUW1Ddz3GnkPC0PDI6Fh4XJyYjExFpemZnGs1HI1nNcuwnIKquNzQTZ71dM/gBdvhSl01eF6tbfb2803uuLpl7nstm5frypGpV3VN8YiqSFKpKJZUxWm3OgfpiFgqV6Q4SzE/YoNADkAcQWxb0i1KOIQFDQ3UwWHCI2xAgUutCBkMNnFltIlzCOn+PkcHImkblMUpQyG2RuMRrYoBa9K6V9P11RqdYlB3SBlDgj2xO/bGHtk9e2Efv9Zq+zV6Xlo0q30ttyvR07m97r+qOs0ejr9Uf3r2UEXG96qTd9tnerfQ+vrmydnb3vpuop1kV+yV/F+yZ/ZANzCb79r1Dt89h0gfIP987kGQS6fk1ZS8k45vZIKvCGMei1im917DBrawjSyd28QFrnET6goLwpKQ7KcKoUAzi28hrHwCLCuPZA== ¯ y2

Slide 49

Slide 49 text

ノイズのないデータで実験 3) 予測分散が観測値の分散に依存せず、Dropout 確率に依存 4) 推定する値が⼤きいため、分散も⼤きくなっている Notes on the Behavior of MC Dropout non-linear network (300 forward passes) 出⼒値 MCD Dropout率:低 MCD dropout率:⾼

Slide 50

Slide 50 text

Uncertainty Toolbox: an Open-Source Library for Assessing, Visualizing, and Improving Uncertainty Quantification Youngseog Chung,Ian Char,Han Guo,Jeff Schneider,Willie Neiswanger UQ( Uncertainty Quantification )の評価、可視化、改善を⽀援するオープンソース のPythonライブラリであるUncertainty Toolboxを紹介 MLシステムが様々なタスクに使⽤され、予測の不確実性を正確に定量化する需要が ⾼まっている MLにおける不確実性の定量化は予測の信頼性を定量化するタスク UQの多くの研究は、利⽤する評価指標がバラバラで、どの評価指標を使うべきかが 分かれている傾向 Uncertainty Toolboxを開発 ⼀連の評価指標を同時に検討し、UQの品質を総合的に評価することが重要 Uncertainty Toolboxが、MLにおける不確実性への取り組みを加速させ、団結させるた めに役⽴つことを願っている 要約 背景 課題 ⽅法 要約 背景 課題 ⽅法 結果 #Uncertainty Analysis

Slide 51

Slide 51 text

UQライブラリ 分類問題 • Uncertainty Baselines (Nado et al., 2021) • Robustness Metrics (Djolonga et al., 2020) 回帰問題 • Uncertainty Toolbox • Toolbox の内容 Uncertainty Toolbox: an Open-Source Library for Assessing, Visualizing, and Improving Uncertainty Quantification Evaluation Metrics :calibration, group calibration, sharpness, proper scoring rules Recalibration :単調回帰の平均キャリブレーションの改善 Visualizations :予測分布、キャリブレーション、および予測精度の可視化 Pedagogy:この分野の概念・⽤語集、論⽂リストを提供 https://github.com/uncertainty-toolbox/uncertainty-toolbox

Slide 52

Slide 52 text

Uncertainty Toolbox: an Open-Source Library for Assessing, Visualizing, and Improving Uncertainty QuanHficaHon • Visualizations hfps://github.com/uncertainty-toolbox/uncertainty-toolbox

Slide 53

Slide 53 text

Uncertainty Toolbox: an Open-Source Library for Assessing, Visualizing, and Improving Uncertainty QuanHficaHon • Recalibration https://github.com/uncertainty-toolbox/uncertainty-toolbox

Slide 54

Slide 54 text

On The Dark Side Of Calibration For Modern Neural Networks 最近のキャリブレーション⼿法がAUROCとcalibration 指標とのトレードオフがある ことを⽰した DNNのキャリブレーションでは、ラベル平滑化やデータ拡張⼿法のMix upがよく利 ⽤されている 最近のアプローチは、歴史的にキャリブレーションの重要な側⾯であった refinementにはほとんど触れていない calibration metric のECEを式変形すると平均予測信頼度とrefinementに分解されるこ とを⽰した 多くのキャリブレーション⼿法は、 AUROCを低下させることでキャリブレーショ ンしている データセットが⾃然に変化した場合でも、多くのキャリブレーション⼿法では、 このcalibrationとAUROCのトレードオフが成⽴した Aditya Singh, Alessandro Bay, Biswa Sengupta, Andrea Mirabile 要約 背景 課題 ⽅法 結果 #Uncertainty Analysis

Slide 55

Slide 55 text

On The Dark Side Of Calibration For Modern Neural Networks FL:Focal Loss ,MX:Mixup,LS:label smoothing,ERL:Entropy Regulariza.on ,TS:Temperature Scaling 他の研究では、ラベルの平滑化( MixupやLS)は、Calibrationに効果が⾼いことが⽰されていた。 ⼀⽅で、実験の結果は、MixupやLSはECEを下げているが、AUROCも下がってしまっている。 ※式ECEの分解は、紙⾯のノーテーションが酷すぎて理解できずに断念しました。 そのため、実験の考察のみ紹介します。

Slide 56

Slide 56 text

Natural distribuOon shiP 下でのCalibraOonとAUROCのトレードオフの調査 • Natural distribu4on shinとは • 訓練データに⽐べて、テストでは現実画像のように光源、背景などが変化 On The Dark Side Of Calibration For Modern Neural Networks Taori, R., Dave, A., Shankar, V., Carlini, N., Recht, B., and Schmidt, L. Measuring robustness to natural distribution shifts in image classification. In Advances in Neural Information Processing Systems (NeurIPS), 2020. ECEの改善率に対して、AUROCが悪化している