Bartlett. Long, Lugosi, and Tsigler. Benign overfitting in linear regression
n 問題意識:
• サンプルサイズよりもパラメータの数が多いような,オーバーパラメトライズ
された回帰モデルがなぜ予測において良い性能を発揮するのか.
• 古典的な学習理論で指摘される予測性能とモデル複雑どのトレードオフ,
深層学習では発生していない?
• むしろモデルを複雑にすればするほど予測性能が上がる?
n 実務には役立たないかもしれない.
n 深層学習の理論のホットなトピックを紹介.
概要 2
n Benign overfittingの論文では,最も単純な設定である線形回帰を考える.
n 線形回帰:二次損失と線形予測ルール.
n 無限次元の空間(分離可能なヒルベルト空間)のデータを考える.
n パラメータ空間の次元は、完全な適合(予測)ができると保証されるほど大
きいことを仮定する.
• 特殊なケースとして有限次元の部分空間にも結果が適用される.
n 期待二次損失を最小にする理想的なパラメータ(回帰モデルの真値,サン
プルが無限に与えられた時の最小二乗解)を𝜃∗とする.
n オーバーパラメトライズしてデータに過適合させるとき,𝜃∗のもとでの予測
精度に近づけるのはいつなのかを考える.
線形回帰モデルにおける過適合 11