Upgrade to Pro — share decks privately, control downloads, hide ads and more …

時系列データ解析まとめ

Ringa_hyj
August 26, 2020

 時系列データ解析まとめ

まだ仮

Ringa_hyj

August 26, 2020
Tweet

More Decks by Ringa_hyj

Other Decks in Science

Transcript

  1. こんな形の池で釣りをするとしよう 0.05 0.1 0.15 0.2 0.2 0.25 0.1 y軸は各地点の時の釣れ易さの確率 釣れた全体の質量(単位は匹だったけど

    ) に対して各地点で釣れた魚の質量 を確率で表していることから y軸を「確率質量」と呼ぶ
  2. もっとずっと細かく分けてみる そして頂点を点で結ぶ こんな形の池で釣りをするとしよう 線を決めることが出来れば、 ある区間を積分して、 その地点の釣れる魚の確率質量を 求めることができる この線を関数 f(x) として考える。

    質量でなく、 「ある地点の魚の生息密度」 を示していると考える これを確率密度関数(probability density function:PDF) と呼ぶ y軸を確率密度と呼ぶ 確立質量と確率密度 とかは 離散と連続の話になるので勘弁
  3. 原系列・・・何の変換も加えていない時系列データ 対数系列・・・分散不均一、時間がたつと振れ幅が大きくなる 時系列解析の解析できる前提「定常性」を満たすために変換 log y 階差系列・・・差分系列とも。y t -y t-1 単位根仮定の差分系列は定常過程になる

    Δ y 対数差分系列・・・変化率の代わりになる 変化率y t -y t-1 /y t-1 log(y t )-log(y t-1 )=log(y t /y t-1 )=log(1+y t -y t-1 /y t-1 ) 対数差分系列を一次のテイラー展開すると変化率と同じ式になる log(1+x)→x 一次のテイラー展開 計算が楽 Δlog y 時系列の”値”について考える
  4. 4月 8月 12月 時点t 時点t+1 時点t+2 時点tでの値の平均値は 25±〇℃ 時点t+1での値の平均値は 32±〇℃

    時点t+2での値の平均値は 5±〇℃ 季節によって平均気温は変わる。 (±もちょこっと変わるだろう) これを図にすると 時系列の”値”について考える
  5. = =1 ={y 1 ,y 2 ,…y T } T時点までの時系列データをYというベクトルで表す

    期待値は E(y t ) 分散は Var(y t -y bar ) 各値ytの従う確率分布をチルダを使って表記する 下記は正規分布N y t ~ N(μ,σ2)
  6. lagを取った過去の時点との共分散を自己共分散と呼ぶ (時系列のユニークな母数) γ 1t =Cov(y t ,y t-1 ) 1tとなっているのは1つ前とt時点の共分散である

    これを「1次の自己共分散」と呼ぶ k次の自己共分散は、「t時点が大きければt-k時点も大きい」を判断する指標になる kを変数と考えて自己共分散関数と呼ぶこともある
  7. ρkt =Corr(y t ,y t-k )= 自己共分散を正規化したものを これを「k次の自己相関」と呼ぶ k次を変えていったもの kを変数と見た時の関数

    自己相関関数(ACF,autoは自己って意味)とよぶ acfを右図のようにしたものを コレログラムと呼ぶ 現時点t+1 = 8月 コレログラムの単位が月ごとなら lag=12(カ月)の地点を確認すると、 去年の夏と今年の夏の値は互いに似た正の値になり 正の棒が立つ , − −
  8. 編自己相関 実は一つ前と一定の係数で関係性を持っているだけの系列を考える y t = 0.8 y t-1 二つ前の値との関係を見ると、これとも関係を持っているように見える yt

    = 0.64 y t-2 y t = 0.8 y t-1 y t-1 =0.8y t-2 よりy t = 0.8 (0.8y t-2 ) このように、t時点と過去のt-k時点までの間に関係性がある場合、 純粋に関係性を比較できない そこでt-k時点までの間の関係性を取り除いたものが偏自己相関とよばれるもの
  9. ただしαは を最小にするものとして求める ො = −1 − ො 2 1時点前との関係性を抽出したyhatを考える 比較したい時点の過去方向にも

    ො −2 = β−1 −2 − ො −2 2 二次点前との偏自己相関は 2 = − ො , −2 − ො −2 − ො −2 − ො −2 2が任意のkであるとき、PACF 偏自己相関関数 とよぶ 計算にはダービンのアルゴリズムが使われる
  10. ホワイトノイズの値(確率変数)を ε t とする ホワイトノイズの定義は以下であり、時系列の周期・トレンドを含んでいないノイズのことである ・期待値は0 ・分散は一定 cov(ε t ,ε

    t ) = σ2 ・自己相関は0 cov(ε t ,ε t-k ) =0 ※自己相関のkは0以外 表記を ε t ~ W.N.(σ2) 実用では正規分布として考えて ε t ~ N(0,σ2) 独立同一分布の系列 iid系列 iid系列は y t ~ iid(μ,σ2) のように表記する ちなみにホワイトノイズはiid系列であり強定常過程の例でもある 期待値0の独立同一のiid系列は攪乱項としてモデルの残差を表現するために使われるが、 独立・同一など厳密な過程をせずとももう少し気軽に使える攪乱項としてホワイトノイズが使われる
  11. ドリフト率δ δは定数で、ランダムウォークに足されると、ノイズの乗った線形トレンドとなる ホワイトノイズの累積和からなる確率過程 y t = y t-1 + ε

    t ※ε t ~N(0,σ2) 確率的に増えたり減ったりしてトレンドをつくることから、確率的トレンドと呼ぶ ランダムウォーク
  12. かばん検定 統計量Q(m)は自由度mのカイ二乗分布χ(m)に従うことがしられており、 95%点からQ(m)のほうが大きければ帰無仮説は棄却される(もしくはP値が小さいときに棄却) = + 2 ෎ =1 ො 2

    − mが小さい場合には自己相関を見逃しやすい mが大きい場合には検出力が小さくなる(帰無仮説が正しくないときに棄却(正しくない)できる確率) m = log(T)が一般的に使われるが、決め打ちせず複数のmでかばん検定を試すのがよい
  13. 毎回ドリフト率δだけ増えるような系列はトレンド定常過程 yt =tδ+εt ※εtはホワイトノイズ この差分を考えると Δyt =yt – yt-1 =tδ

    + εt – (t-1)δ – εt-1 =δ+εt-εt-1 εt-εt-1はホワイトノイズに等しい 定数にホワイトノイズ足された時系列であるので定常となった ランダムウォーク(確率的トレンド)はホワイトノイズ累積和であり非定常だが、 その差分系列はホワイトノイズであり定常である ランダムウォークの将来予測はytの値に依存する。 ただし、係数が1よりも小さいときは、攪乱項の期待値に収束するが 係数が1であるとき、収束せずランダムウォークを続ける。 予測としてはytにh*σ^2までのばらつきを考えることになる。 季節階差・・・階差のd次として前周期の同じ期を引くことで定期的な波の成分を取り除く
  14. ARIMAモデル AR,MA,I(d)の考え方が組み合わさった時系列モデル 自己回帰 ARモデル yt = c + Φ1yt-1 +

    εt Φ1は係数 ARモデルではy=ax+bのxが「相関を持つ過去のデータ」を使って表現する 何時点前までのデータを見てモデルを作るかを決める p時点前までを使う場合をAR(p)と表現する ARモデルのyt-1が変数xとなり、 yt-1がわかれば係数や定数を組み合わせて次の時点ytの値を予測することができる この考え方から未来の値を条件付き期待値 として考えられる E(yt|yt-1) = c + Φ1yt-1 + εt ※今までの定常過程の予測については過去の値は関係なく、期待値・分散の固定から予測していた = + ෍ =1 Φ i − +
  15. データ生成過程とは時間変化とともに変化する確率分布のこと この考えをARモデルから説明する P(yt|yt-1) ~ N(c + Φ1yt-1 , εt) yt-1が変化することで期待値が脈々と変化する確率分布である

    AR(1)モデルで係数が1の場合はランダムウォークとなる 1を超えると爆発的増加となる もし係数が1よりも小さい時徐々に前時点の影響は小さくなっていく(勾配消失のように) AR(1)の自己相関はΘ=Φの時MA(1)のグラフよりも滑らかになる。 ・自己相関の絶対値がAR(1)のほうが大きいことを意味する ・Φ>0の時AR(1)過程は2次以降の自己相関もすべて正になる という性質のためである
  16. K次の自己相関を考える まず自己共分散から γk = Cov(yt, yt-k) = Cov(Φ1yt-1 + εt,

    yt-k) = Cov(Φ1yt-1,yt-k) + Cov(εt, yt-k) = Φ1γk-1 両辺をγ0で割ると自己相関が出てくる ρk = Φ1ρk-1 この式をユール・ウォーカー方程式と呼ぶ 「AR過程の自己相関はytが従うAR過程と同一の係数を持つ差分方程式に従う」ということを示す式 ここでρ0=1が前提であり、ρk=ρ-kが成り立つという性質があることに注意すると、 ρ0がわかればp次だろうが自己相関を逐次的にもとめることができる
  17. AR(p)過程の性質 ① μ = E(yt) = c/1-Φ1 –Φ2-・・・Φp ② γ0=Var(yt)

    = σ^2 / 1-Φ1ρ1-・・・Φpρp ③ 自己共分散・自己相関はAR過程と同じ係数を持つことが知られているため、 p次差分方程式をかいてやれば求まる γk = Φ1γk-1…Φpγp ρk = Φ1ρk-1…Φpρp ※k>=1 ④ AR過程の自己相関は指数的に減衰する とりあえず自己相関の値はユールウォーカーの差分方程式で求まるってのは重要
  18. 例 AR(2)の定常となる条件について yt = c+Φ1yt-1 +Φ2yt-2 +εt 特性方程式1-Φ1z-Φ2z^2=0 から 解の公式を使って解を置く。

    1を超えない係数が出てしまうことから、AR(2)は定常とならないことがわかる 性質:定常なARとMAの関係 ARが定常であるとき、MAで書き換えることができる。定常のAR(1)を使って例示。簡単のためc=0 yt =Φ1yt-1 +εt = Φ1(Φ1yt-2+ εt-1) +εt = Φ1^myt-m + Σ(k=0,m-1) Φ1^k εt-k ここで|Φ1|<1であった時定常なので、mが∞になるとき前項が0になる よって yt=Σ(k=0,m-1) Φ1^k εt-k となり、これは∞次の移動平均過程を表している 重要な性質として、 Φ1^kのkが大きくなるに従い0に減衰していくことがわかる。
  19. ようやく反転可能性 MA過程は常に定常であることが知られている 定常性は満たせても、複数の同一な自己相関構造が存在するのが問題 MA(1)で確認 yt=εt + Θεt-1 yt=εt + 1/Θεt-1

    上記は二つとも期待値、γ0,1,kがすべてひとしくなる そこで MAがAR(∞)に書き直せるようなMA過程を選ぼう という点が反転可能性である 反転可能の時攪乱項が過去のytを使った関数として表現できるので、予測誤差として解釈できる そのため本源的な攪乱項とよんだりする パラメータ推定に便利 これもMA特性方程式の解が1より大きいとき反転可能となる MA(1)がAR(∞)となることの説明 εt =-Θεt-1 + yt =(-Θ)^m εt-m + Σ(k=0,m-1)(-Θ)^kyt-k 反転可能の条件は特性方程式より|Θ|<1より Σ(k=0,∞)(-Θ)^kyt-kのみが残る ちょっとわからないけどAR(∞)でytに書き換えられる
  20. p次AR(p)・・・p時点までさかのぼって考える q次MA(q)・・・q区間のホワイトノイズの加重和 これらを組み合わせたARMA(p,q)モデルで自己相関を柔軟に表現することを考える ෍ =1 − ෍ =1 − yt=

    c+ εt + + 定常データへの適応を前提としているAR,MAモデルに対して、 原系列が非定常の場合、差分系列をとることがある。 d次和分過程に対してARMAモデルを適応したものを ARIMA(p,d,q)と呼ぶ
  21. ラグ演算子を使ってSARIMAの式を一般化 演算子Bを使う = −1 = −2 1 − 1 =

    1 + 1 Δ = 1 − ARIMA(1,0,1) I(d) − 1 = + 1 = 1 −1 + + 1 −1 Δ = − = − −1 I(1) Δ
  22. ラグ演算子を使ってSARIMAの式を一般化 演算子Bを使う ARIMA(p.d.q) 1 − ෍ =1 Δ = 1

    + ෍ =1 = Δ 季節性の周期がsである時、季節性の抽出モデルは 1 − ෍ I=1 ′ Δ = 1 + ෍ J=1 ′ ′ = ′ Δ 1 − ෍ =1 1 − ෍ I=1 ′ Δ Δ = 1 + ෍ =1 1 + ෍ J=1 ′ 上記からSARIMA(p,d,q)(P,D,Q)[s]
  23. ARIMAX ARIMA with eXpgenous variables model ダミー変数や外部変数を使って値を説明する。 ARIMAモデルに外部変数k番目Xkに 変数ごとの係数βkを求めて足す ARIMAX(p,0,q)

    ෍ =1 − ෍ =1 − yt= c+ εt + + + ෍ =1 , d階差分を取ったデータに上記を適応したらいい。 SARIMAに対してもSARIMAXとして考えることもできる 時系列に線形回帰を使ってから、残った残差にARIMAを使う方法をARIMA Errorモデルと呼ぶ ARIMAXと考えは同じ 見た目は変わる
  24. KPSS検定 帰無仮説:単位根なし 対立:あり 危険率5%で有意を調べる = + + ෍ =1 +

    εは定常過程 uiはiid(0,σ^2) つまり定数項+トレンド+ランダムウォーク+定常過程 もしトレンド成分があれば、時系列にはランダムウォークと定常が残り、単位根が残っているはず σ^2が0ならばランダムウォークは無いと考える これを帰無仮説とする 対立は0でない。 β=0とした後に、残った成分に検定を行う??
  25. auto ARIMA KPSS検定 単位根があれば差分を取る 差分系列にKPSS検定 これを単位根が見つからなくなるまで繰り返す 差分の次数が決まったら差分系列にARMAモデルを適応する 定数項をつける・つけない+p,qの次数 の組み合わせを網羅的に試す 網羅したモデルをAICを計算

    定常性・反転可能を確認 満たすモデルを残す 残ったモデルでAICを比較して小さいものを選択 残差に抽出しきれていない要素(残差の自己相関)がないかチェック Ljung-box検定 残差がちゃんとホワイトノイズ(正規分布)から大きく外れていないか正規性テスト Jarque-bera検定(尖度歪度で理論的な正規分布と比較)、 shapiro-wilk検定 SARIMAも同じ手順で自動化できる 季節階差Dはcanova-hansen検定で判断していく 定常性のある原系列に差分を取ろうとすると過剰差分(情報損失)が起こる
  26. 最適予測 optimal forecast MSE最小となる予測のこと 条件付き期待値がMSE最小にしてくれる yt= β+αyt-1+εt εtは0.8の確率で3 0.2の確率で-12を取る。 αβは既知

    yt-1が与えられた時、将来のytの推定はεtによってのみ変化する MSE(c)=0.8*(αyt-1+3 - c)^2 + 0.2 *(αyt-1-12 - c)^2 これをcで微分して0に等置することでMSE最小の予測値が得られる つまり最適予測は条件付き期待値になる
  27. 見せかけの回帰を回避するには ラグ変数を回帰に含ませることで回避できる yt = α + β1xt + β2xt-1 +

    β3yt-1 + εt つまりArimaXやVAR、状態空間、一般化最小二乗法 などを使う場合は気にする必要がない 残差の自己相関も何らかの方法で表現することが必要 また、ホワイトノイズは見せかけの回帰を起こしにくく、 ランダムウォークはみせかけの回帰が起こることから、 階差を計算してホワイトノイズ(定常過程)に戻せばいいという考えもあるが、 差分を取ることで誤ったモデルを推定されてしまうこともあるので注意 1,実は差分を取る前から定常であった→過剰差分と呼ばれる 過剰差分は反転可能でなくなる そのため差分を取る前に単位根検定を行う 2,もとの関係が見せかけの回帰でなく共和文関係である場合 以上のことから、まず、見せかけの回帰の関係であるかを見極める必要がある 単位根検定から単位根がなければ一般最小二乗法 あれば共和分をチェック、共和分がなければ階差系列をとり 共和分があれば階差をとると情報を失うことになるので注意
  28. utは互いに独立な定常過程 wは互いに独立な単位婚過程 xt=αw1t+u1t yt=βw1t+u2t これはI(1)+I(0)過程となっている 関係性としてd2>d1であればd2が優先されるはず 変形して xt – α/β

    yt = u1t – α/β u2t をみるとI(0)過程となっている つまりこのに変数には共和文の関係が存在し、 共和文ベクトルは(1,-α/β)である
  29. xt=w1t+u1t I(1) yt=w2t+u2t I(1) st=w1t+w2t+u3t I(1) x,yに共和文は存在しない stとx,yにも共和文はない しかし xt

    + yt – st = u1t + u2t + u3t はI(0)である よって3変数のとき共和文関係がある 共和文ベクトルは(1,1,-1) 以上のことから、含まれる変数の関係性によっては共和文関係がうまれることになる
  30. xt=w1t+u1t I(1) yt=w2t+u2t I(1) st=w1t+2w2t+u3t I(1) vt=2w1t+w2t+u4t I(1) a=(1,2,-1,0) b=(2,1,0,-1)

    となる 他にも共和文ベクトルを考えることができるが、それも結局はa,bの線形和によって表現される 四変数の間には2個の共和文関係が成り立っている 複数の共和文関係が存在する 最大で変数の数-1個存在し、この値を共和文ランク とよぶ
  31. ケインズ型の消費関数 消費は所得水準のみできまる この関係を線形で表すと ct = α + βyt ytはt期の所得(GDP)であり、ctは消費である αは基礎消費ともよばれ

    βは限界消費性向とよばれる この数式は単に回帰分析で係数を求めるだけではうまく溶けない なぜなら消費もGDPも単位婚過程に従うことが多いので見せかけの回帰関係になる そこで共和文関係を検証しよう 共和文関係が存在するならば、共和文関係のほうを消費関数として扱っていいということになる
  32. 購買力平価 PPP 仮説とは、 為替レートで同じ通貨に換算したら各国の物価水準が等しくなる という過程 これは背後に一物一価の法則で、物価水準の安い方で購入し、高い方で売れば利益になるので 為替レートを調節した後の二国の物価水準に大きな差はない という法則 長期的にはPPP仮説が成立するように為替レートが調節されていくはず これを共和文関係をつかって考えるならば

    PJPt 日本物価水準 PUSt アメリカ物価水準 Et 円ドル為替レート (円/ドル) とする。PPP仮説は PJPt = Et * PUSt が成立する、ということである 両辺対数をとる。対数を取った三項は単位婚過程に従うことがおおい。 もしPPP仮説が成立するならば近似誤差Ztが定常過程であると言えるはず log(PJP) = log(E) + log(PUS) +zt zt~I(0) 共和文ベクトル(1,-1,-1)とおいて成り立つかしらべることで3変数間に共和文があるかを調べればよい
  33. リスクプレミアムとフィッシャー効果 社積の名目金利 rt 国債の名目金利it インフレ率πt が単位婚過程であることが知られているとする 社債には信用リスクが存在し、国債の金利よりも高いことが想像つく rt-itはリスクプレミアムと呼ばれる これは景気によって変動するが、定常であることが予測される。 以上の関係を確かめるには

    rt = α1 + it + u1t u1tはI(0) という共和文が成り立てばよい 名目金利が変化しても、実質金利(名目金利-πt)が変化しないことはフィッシャー効果と呼ばれる フィッシャー効果が正しければ it = α2+πt + u2t u2tはI(0) という関係が成立することになる。 3変数からなる関係が以上の2つの共和文で表せるならば成立するはず
  34. 差分系列の共和分 データXの各変数がd次の和分過程I(d)に従う 変数の線形結合をとるとI(d-b)に次数が減る時 Xの各変数xtは共和分の関係にある と呼びxt~CI(d,b)とかく 1次の和分過程(単位根をもつ) の変数同士を線形結合すると定常過程(0次の和分過程)になるとする x1=0.6*ランダムウォーク+ノイズ x2=0.4*ランダムウォーク+ノイズ x1

    - 0.6/0.4 x2 = Z とする。線形結合(定数倍と足し引き)によってランダムウォークの差分系列になった よってランダムウォークはホワイトノイズ(定常 0次)になる 以上の関係が共和分関係である。 x1,x2でなくx,yの関係にある時、差分系列をとると、本来の0.6や0.4といった関係が見逃されることになる
  35. 共和文ベクトルを推定するなら a=(1,-γ2, -γ3,・・・) y1t = α + γ2 y2t +

    γ3 y3t・・・ これをOLSで推定する。 yたちに複数の共和文があった場合、今回推定した共和文ベクトルが 求めている関係性であるとは限らないので注意 あくまでもOLS残差が 説明変数の線形和のなかで定常になるものを除く方法であり、 それらと無相関になるような共和文ベクトルが求められるだけである
  36. 共和文関係であるのかの検定としては 共和文ベクトルがわかっている場合ならば、 a=(1,1,-1) pjp = et + pus を qt

    = pjp – e – pus と変形してからqtに単位婚検定を行う もし共和文ベクトルが未知で1つである場合にはengle granger共和文検定を使う a=(1,-γ2,・・・) y1t=α+γ2y2・・・ のOLS残差に単位婚検定を行う 棄却できなければ共和文 棄却なら見せかけの回帰 となる。これらにもまだまだ問題はある。 johansenのVECMに基づいた検定 トレース検定と最大固有値検定は 問題に対して対処できるらしいがむずいのですいません。。。
  37. VARモデル ベクトル自己回帰モデル 目的としては ・複数変数で精度を上げる ・変数間の動的な関係を分析する ARモデルをベクトル(1変数間でなく複数変数の行列)に拡張したもの VAR(p)ならp期前の自己の値と定数で時点tを表現するモデルである 複数の時系列データを統合してモデル化する ・Granger因果 という考え方で因果の有無を調べる

    ・ある時系列の増加に対して、別の時系列の変化はどうか という変化・影響を定量化できる 関係性を表したものを インパルス応答関数 とよぶ (2変量) 1次VARモデル yt=c1 + Φ11yt-1 + Φ12xt-1 +ε1t xt=c2 + Φ21yt-1 + Φ22xt-1 +ε2t お互いの値をお互いの一つ前の値で表現するモデル
  38. VARモデルはARモデルと同じく定常になるとは言えない 特性方程式を解いて解の絶対値が1を超える時に定常になる VARはVMA(∞)に変形することができる VARはytを表すためにx1tやx2tといった同時点tの他変数の値は参照しない 同時方程式モデル(simultaneous equation model)では無い と言える ただし、無関係というわけではなく誤差項の相関を通じて関係しているので、 見かけ上無関係な回帰モデル(SUR:seemingly

    unrelated regression model)と呼ばれる 予測対象yを含むn変数であるn変量VARモデル SURモデルは、誤差項の相関を使うため、n本の回帰式を同時に解く必要がある VARモデルはSURと異なり、各回帰式が同一の説明変数を使うので同時に解く必要がない。 個別にOLSで解いていけばいいという利点から流行の原因にもなった
  39. インパルス応答関数IRF impulse response function 一方に変化を与えた時、もう一方にどれだけ影響が残るのか調べる xtの攪乱項εtに変化を与えた時、yのt+k期後に影響が出たことを考える。 xtがショックを受けることでyt+kが反応したことを 非直行化インパルス応答 と呼ぶ このkを関数として考え、非直行化インパルス応答関数と呼ぶ

    yt+kに関する偏微分を、変数Xのεtの偏微分で割った値が応答の値 k=0から逐次ためして調べる しかし、攪乱項は変数間に相関がある。 そのため、ショックを与えたら影響が出るのは当然。 そこで、相関する誤差項と、そうでない誤差項に分けて考えるべきというものが 直行化インパルス応答関数の考え。
  40. ボラティリティのモデル化 株式収益率yt 効率的市場仮説からytの予測は難しいだろう yt = μ +ut (utはホワイトノイズ) とモデル化するとしよう ut

    = y – μ として、これの二乗 ut^2 = (y – μ)^2 についてacfをつくる。 もしacfが大きな値を残している場合、モデルが性格でないことが考えられる。 つまり過去のばらつきから現時点のばらつきの値も変化させてやりたい E(ut|ut-1・・・)
  41. 求めたいものは予測値であり、 起こるかもしれない幅をモデル化することに重要性を感じないかもし れないが ボラティリティは現在の株のリスクを表すものでもある。 yt = μt + ut =

    μt + √htvt というモデルを考える。μtはARやARMAのような条件付き期待値モデル ht,vtが条件付き独立であるならば E[(yt-μt)^2 |yt-1,yt-2・・・] = E[(ut^2|yt-1,yt-2・・・)] が成り立ち、独立性からutをht,vtに分解することで =E[ht| yt-1・・・]*E[vt|yt-1・・・] =E[ht| yt-1・・・] となる。htのモデル化は2タイプある
  42. GARCHモデル まずARCHとはARモデルの考えを分散の当てはめに使うモデル ARCH(m) ht=ω + α1ut-1^2 + α2ut-2^2 +・・・ とモデル化したもの。

    wt = ut^2 – ht = ut^2 –E[ut^2|ut-1,ut-2・・・] とすると ut^2=ω + α1ut-1^2 + α2ut-2^2 +・・・+wt と表現でき、攪乱項の二乗をARモデルで表現したことになる。 しかし、u^2には初期値が必要となり、初期値にはyt-μtの標本分散を使うことが多い また、ht>0であり、これを満たすための制約としてω>0,αj>=0がある
  43. 今までARCHの話をしてきたが、 ボラティリティは上側と下側で挙動が違うことも考えられる 金融ではボラティリティは比較的長く正の自己相関をもつことがある そのため、ARCHで金融データを当てはめようとすると次数が大きくなってしまうことが考えられる 次数が大きければパラメータも増える より単純なモデルで自己相関を表現できるモデルとしてGARCH(r,m)が考えられた ht = ω+β1ht-1 +

    ・・・+βrht-r + α1ut-1^2 +・・・+ αmut-m^2 htはh1から順に推定していく hとu^2は両方の初期値が必要となる どちらもyt-μtの標本分散を用いることが多い ht>0のための制約としてω>0,αj>=0,βj>=0が仮定されることが多い GARCHのut^2はARCHで推定したものではないことに注意
  44. ARCHでの推定ではないこと wt=ut^2-ht=ut^2 –E[ut^2|yt-1,yt-2,…] とすると ut^2=ω+(α1+β1)ut-1^2+(α2+β2)ut-2^2…(αp+βp)ut-p^2 +wt-β1wt-1 –β2wt-2・・・-βrwt-r 以上からut^2はARCHでなくARMA(p,r)過程でモデル化されている p=max[r,m]である ARの係数は(αj+βj)である

    MAの係数は-βjである 特にGARCH(1,1)が良く使われる。 ht = ω+βht-1 + αut-1^2 ボラティリティクラスタリングなどの減少をうまくモデル化できる場合が多い そのため天下り的にこのモデルが使われる場合がおおい
  45. GARCH(1,1)モデルの定常条件はARの係数α+β<1となること α+βが大きいほど分散が持続する α+β=1のとき分散は恒久的に持続する。 これを特にIGARCHモデル integrated GARCHモデル と呼ばれる 定常のGARCH(1,1)モデルのとき、 ut^2の期待値は ω/1-α-β

    今回のモデルもボラティリティの正のショックと負のショックは分散に対して同一である 金融や株では負のショックのほうが影響が大きいことが知られている これをレバレッジ効果と呼ぶ 株が下落して企業のレバレッジが上昇し株の信用性が下がるためである また、投資家も負のショック後は様子見をしやすい心理がはたらく
  46. GJRモデル Glosten-Jagannathan-Runkle GARCH model のように、状況によってノイズの変わり方を分けることができるモデルがある GARCHモデルのひとつ 実際にはut-1<0のときにダミー変数に1が入り、 ut-1>=0のときには0をとるようなIt-1という変数をつくっている ht=ω+βht-1 +

    αut-1^2 +γut-1^2*It-1 この変数を利用して、正のショックはαという影響をもち、条件付き分散を増大させる 負のショックはα+γというショックを持つように表現する こうしてショックごとに挙動を変えるモデルをつくることができた GJR(1,1)モデルでhtが必ず正となる条件は ω>0,α>=0,β>=0,α+γ>=0 である
  47. 他にもGARCHモデルの一種として EGARCHモデル(exponential GARCH) log ht = ω+βlog ht-1 + γvt-1

    +δ(|vt-1|-E[vt-1]) 対数化しているため必ずht>0となるのでパラメータに制約がなくなる ショックはut-1でなくvt-1が使われる ショックは二乗でなく絶対値で組み込まれている δ>0のとき大きなショックが分散を増大させる γ<0のとき正のショックよりも大きい影響を及ぼす
  48. 閾値(threshold)モデル ある変数がある閾値を超えているかどうかでytの従う値を変化させる この時使う変数を状態変数という ある値からモデル自体が変化するようなときに使われる 特にTAR(threshold AR)モデルを紹介する yt=Φ01 + Φ11yt-1 +

    σ1εt st<c yt=Φ02 + Φ12yt-1 + σ2εt st>=c 閾値を超えた時点でモデルを切り替える 今回はAR(1)モデルを切り替えるようにした 3状態以上にも拡張できる 閾値stの選択としてyt-dが使われることがある 過去のy自身の値を使ってモデルが変化するので 自己励起型閾値モデル self exciting threshold model と呼ばれる d=1が用いられることが多い
  49. 2状態のSTAR(1)モデル G(・)を推移関数transition functionとする stを推移変数とする yt = (Φ01 + Φ11yt-1)(1-G(st)) +

    (Φ02 + Φ12yt-1)G(st) + σεt 上式で2つの状態を持つ 状態変化の仕方が滑らかになっているのが特徴 stは 自身の値yt-d や 線形トレンド t/T が使われる 推移関数にはロジスティック型が使われるもの(LSTAR)や指数型(ESTAR)が代表的 ロジスティック型の推移関数は G(st,γ,c) = 1/ 1+exp(-γ(st-c)) ただしγ>0 γは推移速度を調整するパラメタ 大きいほど変化が大きい ∞ならばcにおいて0から1に急に変化するのでLSTARはTARと同値になる cは推移の中心を決めるパラメタ
  50. stが観測不可な場合のマルコフ転移(MS)モデルmarkov switching model 経済の分野では状態のことをレジーム(regime)と呼び MSモデルはレジーム転換(RS)モデルと呼ばれることもある 状態は未知であり、stがM個のパターン存在すると考える yt=Φ01 + Φ11yt-1 +

    σ1εt st=1 yt=Φ02 + Φ12yt-1 + σ2εt st=2 st=Mのときまで拡張できる MSAR(1)では一般化すると yt=Φ0(st) + Φ1 (st) yt-1 + σ (st) εt と表現できる 状態stは確率過程としてマルコフ連鎖を採用する 来期の状態を今季と過去の値を反映させて決めるためにマルコフ連鎖が使われる
  51. 状態 = 前時点の状態を使って予測値を得る + 過程誤差(状態で生じる誤差?) 観測値 = 状態 + 観測に関する誤差

    フィルタを使ってパラメタを推定 ここではカルマンフィルタ+最尤推定 粒子フィルタも有名 線形 かつ ノイズが正規分布に従うデータしかできない 線形ガウス状態空間モデル もしくは 動的線形モデル DLM と呼ばれる ベイズ推定+HMC法で、状態とパラメタを分けずに同時に求める方法もある この場合stanが必要 一気に計算を行う方法なので計算コストが高い
  52. 過程誤差wt (0,σv)、観測誤差Vt (0,σw)の分散を最尤法により推定する これらを取り入れた基本的なモデル ローカルレベルモデルまたはランダムウォーク プラス ノイズモデル μt = μt-1

    + wt yt = μt + Vt ホワイトノイズの累積和過程であるランダムウォークに 観測誤差としてのノイズが加わっている 過程誤差と観測誤差の期待値は0であるため、yt=μt-1となる そのため将来の予測には使えないようなモデルであるとわかる
  53. ローカル線形トレンドモデル トレンド成分の傾きが時間経過によって変化することを表せる δt= δt-1 + ξt μt = μt-1 +

    δt-1 + wt yt = μt + Vt 線形回帰 yt=α + t*β + Vt δt= β μt = μt-1 + δt-1 yt = μt + Vt ただし初期μ0=α
  54. 線形ガウス状態空間モデルの状態方程式・観測方程式 xt = Tt xt-1 + Rt ξt (0,Qt) yt

    = Zt xt +εt (0,Ht) ローカルレベルモデル μt = μt-1 + wt yt = μt + Vt ローカルレベルはTt=1 Rt=1 Zt=1 Xt=μt Qt=σ^2w Ht=σ^2v である。 ローカル線形トレンドモデルはTtやRt等を行列形式に変換すると 線形ガウス状態空間モデルで表現できる
  55. 基本構造時系列モデルBasic structural time series model 時系列=トレンド+周期変動+ホワイトノイズ 今までの方法ではトレンドを差分で消した 状態空間モデルではトレンドは状態で表現できる ARIMAXモデルでは外生変数(回帰成分とも呼ぶ)から外因性をモデルに組み込める 状態空間では傾きが時間によって変化する

    時変係数 も表現できる ローカルレベルモデルに時変係数を入れるとできる βt= βt-1 + τt μt = μt-1 + wt yt = μt + βt Φt + Vt Φtは外生変数でありβtは変化する回帰係数 (ローカル線形トレンドモデルみたい) δt= δt-1 + ξt μt = μt-1 + δt-1 + wt yt = μt + Vt
  56. ローカルレベルモデルの予測とカルマンフィルタによるフィルタリングの流れ 予測 ローカルレベルモデルでは ・状態の予測=前期の状態の値 1step進むと過程誤差が足される ・状態の予測誤差の分散=前期の状態の予測誤差の分散 + 過程誤差の分散 ・観測値の予測値=状態の予測値 これに観測誤差が加わる

    ・観測値の予測誤差の分散=状態の予測誤差の分散+観測誤差の分散 フィルタリング ・カルマンゲインの計算 観測誤差の分散は観測値の予測誤差の分散に置き換えていい ・予測値と実測の差を求めてフィルタ化推定量を求める フィルタ化推定量=補正した状態 フィルタ化推定量の分散=補正状態の予測誤差の分散 こうして将来を予測する。