Upgrade to Pro — share decks privately, control downloads, hide ads and more …

multipleregression

Sponsored · Your Podcast. Everywhere. Effortlessly. Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
Avatar for yuki yuki
December 20, 2020
5.7k

 multipleregression

Avatar for yuki

yuki

December 20, 2020
Tweet

Transcript

  1. 2 最小二乗法で扱う誤差関数 ✓ 誤差関数を誤差の2乗の和とし,誤差関数が最小となる ような係数a, bを計算する方法が最小二乗法 最小二乗法で扱う誤差関数E(a,b) , = ෍

    =1 1 2 () − () + 2 aとbの 2変数関数 誤差の2乗 x y i番目のデータ(x(i),y(i)) x(i) y(i) ax(i)+b 回帰直線 y=ax+b 誤差 (残差) n個のデータを仮定
  2. 3 単回帰分析の行列での表現 ✓ 単回帰分析の場合は下式のように記述できる = ෍ =1 1 2 ()

    − () + 2 = 1 2 (1) − (1) + 2 + ⋯ + () − () + 2 = 1 2 − T − (1) = (1) + (2) = (2) + () = () + … (1) (2) ⋮ () = (1) (2) ⋮ () + = (1) (2) ⋮ () 1 1 ⋮ 1 ⟺ = このように行列を定義すると,誤差関数は下記のとおり
  3. 5 重回帰分析の行列での表現 ✓ 重回帰分析(2変数)の場合は下式のように記述できる (1) = 0 + 1 1

    (1) + 2 2 (1) (2) = 0 + 1 1 (2) + 2 2 (2) () = 0 + 1 1 () + 2 2 () … (1) (2) ⋮ () = 0 + 1 1 (1) 1 (2) ⋮ 1 () + 2 2 (1) 2 (2) ⋮ 2 () = 1 1 ⋮ 1 1 (1) 1 (2) ⋮ 1 () 2 (1) 2 (2) ⋮ 2 () 0 1 2 ⟺ = ():i番目の目的データ(i = 1,…,n) 1 (), 2 ():i番目の2種類の入力データ (i = 1,…,n) 0 :学習する重み係数 (単回帰の切片bに対応) 1 , 2 :学習する重み係数 (単回帰の係数aに対応) 行列で表現すると単回帰と一緒!
  4. 6 重回帰分析で扱う誤差関数 ✓ 単回帰と同様に誤差関数を誤差の2乗の和とし 誤差関数が最小となるような係数w 0 ,w 1 ,w 2

    計算する 最小二乗法で扱う誤差関数E(w 0 , w 1 , w 2 ) 0 , 1 , 2 = ෍ =1 1 2 () − 0 + 1 1 () + 2 2 () 2 w 0 , w 1 , w 2 の 3変数関数 誤差の2乗 回帰平面 y=w 0 +w 1 x 1 +w 2 x 2 誤差 (残差) n個のデータを仮定 i番目のデータ (x 1 (i), x 2 (i), y(i)) x 1 y x 2 w 0 +w 1 x 1 (i)+w 2 x 2 (i) y(i)
  5. 7 重回帰分析での最小二乗法の解 ✓ 重回帰分析での最小二乗法の誤差関数は 単回帰の場合と一致するため,同様の計算が可能 = ෍ =1 1 2

    () − 0 + 1 1 () + 2 2 () 2 = 1 2 (1) − 0 + 1 1 (1) + 2 2 (1) 2 + ⋯ + () − 0 + 1 1 () + 2 2 () 2 = 1 2 − T − ∗ = 0 ⟺ ∗ = T −1 T 誤差が最小となる係数ベクトル Tが正則(逆行列を持つ)と仮定 行列で表現すると単回帰と一緒!
  6. 8 重回帰分析の一般化 ✓ 入力変数がm種類の場合の重回帰分析は 下式のように同じ行列形式で記述できる ⇒最適解も前ページと同様の結果に! (1) = 0 +

    1 1 (1) + ⋯ + (1) (2) = 0 + 1 1 (2) + ⋯ + (2) () = 0 + 1 1 () + ⋯ + () … 1 , … , ():i番目のm(<n)種類の 入力データ(i = 1,…,n) 0 , … , :学習する重み係数 (1) (2) ⋮ () = 0 + 1 1 (1) 1 (2) ⋮ 1 () + ⋯ + (1) (2) ⋮ () = 1 1 ⋮ 1 1 (1) 1 (2) ⋮ 1 () ⋯ ⋯ ⋯ 2 (1) 2 (2) ⋮ 2 () 0 1 ⋮ ⟺ = ⇒ ∗ = T −1 T 誤差が最小となる係数ベクトル
  7. 9 解が求められない場合(1/2) ✓ 入力変数x 2 が入力変数x 1 の3倍である場合を考える = 1

    1 1 1 (1) 1 (2) 1 (3) 3 1 (1) 3 1 (2) 3 1 (3) , T = 1 1 1 1 (1) 1 (2) 1 (3) 3 1 (1) 3 1 (2) 3 1 (3) T = 1 + 1 + 1 1 (1) + 1 (2) + 1 (3) 3 1 (1) + 3 1 (2) + 3 1 (3) 1 (1) + 1 (2) + 1 (3) 1 (1) 2 + 1 (2) 2 + 1 (3) 2 3 1 (1) 2 + 3 1 (2) 2 + 3 1 (3) 2 3 1 (1) + 3 1 (2) + 3 1 (3) 3 1 (1) 2 + 3 1 (2) 2 + 3 1 (3) 2 9 1 (1) 2 + 9 1 (2) 2 + 9 1 (3) 2 ✓ Tを計算すると次式のとおり ✓ 部は 部を3倍したベクトルであり Tが正則でない(逆行列を持たない)ことがわかる
  8. 10 解が求められない場合(2/2) ✓ Tの逆行列を求められない場合は 最小二乗法の解を求めることができない T∗ = T ⟺ ∗

    = T −1 T ✓ このように入力変数間における線形従属性のことを 共線性と呼び,共線性が複数存在する場合は 多重共線性(マルチコ,Multicollinearity)と呼ぶ ✓ 多重共線性が存在する場合, Tの逆行列が∞に 発散するため係数ベクトルを求めることができない 逆行列が必須!