本発表では、深層学習における分布シフトの問題に焦点を当て、そのトピックを紹介します。従来の学習フレームワークでは、訓練データとテストデータは i.i.d. であると仮定され、経験損失を最小化することで期待損失を最小化することが期待されます(Empirical Risk Minimization)。しかし、現実世界ではテストデータの分布が訓練データの分布と異なることが一般的であり、学習・推論時の環境変化は、教師あり学習の前提に反するものです。従って、分布シフトの問題に取り組むことが、深層学習の実応用に不可欠です。前半で個々の論文の詳細ではなく、分野全体の概観・トレンドを紹介し、後半ではいくつかの論文について簡潔に紹介します。