axjack's blog

### axjack is said to be an abbreviation for An eXistent JApanese Cool Klutz ###

統計学実践ワークブック 第27章 時系列解析 より、AR(1)過程

AR(1)過程についてまとめます。

共分散定常過程

時系列 \{Y_t\}が、

  • 期待値:時点によらず一定(  \mathrm{E}[ Y_t ] = \mu )
  • 分散:時点によらず一定(  \mathrm{V}[ Y_t ] = \gamma_0 )
  • 自己共分散:時点によらないが時点の差に依存する( \mathrm{Cov}[Y_t, Y_{t-h} ] = \gamma_{|h|} \ )

のとき、共分散定常過程であるという。

AR(1)過程

 \{ Y_t \}が以下で表されるものを次数1のAR過程( Auto Regressive process order 1 )といい、AR(1)と略す。

 \displaystyle Y_t = c + \phi Y_{t-1} + U_t

ただし、c,\phiは定数で U_t は ホワイトノイズ( W.N.(0,\sigma^2))である。

以下、AR(1)過程が共分散定常であるとする。

AR(1)過程の期待値

 \mathrm{E}[ Y_t ] = \mathrm{E}[    c + \phi Y_{t-1} + U_t  ] \\
=  \mathrm{E}[  c  ]  + \mathrm{E}[  \phi Y_{t-1}  ]  +  \mathrm{E} [ U_t  ]  \\
=  c  +  \phi \mathrm{E}[  Y_{t-1}  ]  +  0 \\
=  c  +  \phi \mathrm{E}[  Y_{t}  ]  +  0 \\
=  c  +  \phi \mu +  0 \\
= \mu

より、

 \displaystyle \mu = \frac{c}{1-\phi}

AR(1)過程の分散

 \mathrm{V}[  Y_t ] = \mathrm{V}[  c + \phi Y_{t-1} + U_t   ] \\
= \mathrm{V}[  c  ] + \mathrm{V}[ \phi Y_{t-1} ]  + \mathrm{V}[ U_t ] \\
= 0+ \phi ^2 \mathrm{V}[ Y_{t-1} ]  + \sigma^2 \\
= \phi ^2 \mathrm{V}[ Y_{t} ]  + \sigma^2 \\
= \phi ^2 \gamma_0 + \sigma^2 \\
=  \gamma_0

より、

 \displaystyle \gamma_0 = \frac{\sigma^2}{1 - \phi ^ 2 }


AR(1)過程の自己共分散

時点差hの自己共分散を考えると、

 \mathrm{Cov}[ Y_{t-h}, Y_t ] = \mathrm{Cov}[ Y_{t-h},  c + \phi Y_{t-1} + U_t ] \\
= \mathrm{Cov}[Y_{t-h}, c] +  \phi  \mathrm{Cov}[Y_{t-h}, Y_{t-1} ] + \mathrm{Cov}[Y_{t-h}, U_t ] \\
= 0 +  \phi  \gamma_{h-1} + 0 \\
=  \phi  \gamma_{h-1} 
= \gamma_{h}

より、

 \displaystyle \gamma_{h} = \phi \gamma_{h-1} = \phi^2 \gamma_{h-2} = \cdots = \phi ^ h \gamma_{0}

AR(1)過程 → MA(∞)過程

c = 0としてAR(1)過程をラグオペレータを用いて記述すると、

 Y_t =  \phi Y_{t-1} + U_t  \\
= \phi L Y_t + U_t

となる。\phi L Y_t を左辺に移行し整理すると、

 Y_t = \phi L Y_t + U_t \\
\iff Y_t - \phi L Y_t = U_t \\
\iff (1 - \phi L) Y_t = U_t \\
\iff (1 - \phi L)^{-1} (1 - \phi L) Y_t = (1 - \phi L)^{-1}  U_t \\
\iff Y_t = (1 - \phi L)^{-1}  U_t \\

ここでラグオペレータの性質より

 \displaystyle (1 - \phi L) ^ {-1} = 1 + \sum_{j = 1} ^ {\infty} (\phi L )^j

を用いると、

 Y_t = (1 - \phi L)^{-1}  U_t \\
\iff Y_t = (1 + \sum_{j = 1} ^ {\infty} (\phi L )^j ) U_t \\
\iff Y_t = (1 + \phi L + \phi^2 L^2 + \cdots  ) U_t \\
\iff Y_t = U_t + \phi L U_t + \phi^2 L^2 U_t + \cdots  \\
\iff Y_t = U_t + \phi U_{t-1} + \phi^2 U_{t-2} + \cdots

となるので、これはMA(∞)過程に等しい。


AR(1)過程のスペクトラムの前に自己共分散母関数

 \displaystyle g_Y(z) = \sum_{j = - \infty}^{\infty} \gamma_j z^j

を時系列 \{Y_t\}の自己共分散母関数(autocovariance generating function)という。ただし z \in \mathbb{C}とする。
 g_Y(z)を用いると、スペクトラム(スペクトル密度関数)は、

 \displaystyle f(\lambda) = \frac{1}{2\pi} g_Y( e^{-i\lambda} ) \\
= \displaystyle \frac{1}{2 \pi} \sum_{j = -\infty}^{\infty} \gamma_j e^{-i\lambda j}

と表せる。なので、スペクトラムを計算する前に自己共分散母関数を先に求めておく。

AR(1)過程の自己共分散母関数を求めると、


 g_Y(z) = \displaystyle \sum_{j = - \infty}^{\infty} \gamma_j z^j  \\
= \displaystyle \sum_{j = - \infty}^{-1} \gamma_j z^j    +    \sum_{j = 0}^{0} \gamma_j z^j   +  \sum_{j = 1}^{\infty} \gamma_j z^j  \\
= \displaystyle \sum_{j = 1}^{\infty} \gamma_{-j} z^{-j}    +    \gamma_0 z^0   +  \sum_{j = 1}^{\infty} \gamma_j z^j  \\
= \displaystyle \sum_{j = 1}^{\infty} \gamma_{j} z^{-j}    +    \gamma_0   +  \sum_{j = 1}^{\infty} \gamma_j z^j  \\
= \displaystyle \sum_{j = 1}^{\infty} \phi^j \gamma_0 (z^{-1})^j    +    \gamma_0   +  \sum_{j = 1}^{\infty} \phi^j \gamma_0 z^j  \\
=  \gamma_0 \left(   \displaystyle \sum_{j = 1}^{\infty} (\phi z^{-1} )^j    +    1  +  \sum_{j = 1}^{\infty} (\phi z)^j    \right)\\
=  \gamma_0 \left(   \displaystyle   (1 + \sum_{j = 1}^{\infty} (\phi z^{-1} )^j)    +    1  +  (1 + \sum_{j = 1}^{\infty} (\phi z)^j)    -2 \right)\\
=  \gamma_0 \left(   \displaystyle   (1 + \sum_{j = 1}^{\infty} (\phi z^{-1} )^j   ) + ( 1 + \sum_{j = 1}^{\infty} (\phi z)^j )   -1 \right)\\
=  \gamma_0 \left(   \displaystyle   \frac{1}{1 - \phi z^{-1}  }    +  \frac{1}{1 - \phi z }   -1 \right)\\
=  \gamma_0 \left(   \displaystyle    \frac{  (1 - \phi z^{-1}) + (1 - \phi z ) - (1 - \phi z^{-1})(1 - \phi z) } { (1 - \phi z^{-1})(1 - \phi z) }          \right)\\
=  \gamma_0 \left(   \displaystyle    \frac{  (1 - \phi z^{-1}) + (1 - \phi z ) - (1 - \phi z^{-1}  - \phi z  + \phi^2) } { (1 - \phi z^{-1})(1 - \phi z) }          \right)\\
=  \gamma_0 \left(   \displaystyle    \frac{  (1 -  \phi^2) } { (1 - \phi z^{-1})(1 - \phi z) }          \right)\\
=  \displaystyle   \frac{\sigma^2}{1-\phi^2}   \left(      \frac{  (1 -  \phi^2) } { (1 - \phi z^{-1})(1 - \phi z) }          \right)\\
=  \displaystyle    \frac{  \sigma^2  } { (1 - \phi z^{-1})(1 - \phi z) }   \\

となる。

AR(1)過程のスペクトラム

AR(1)過程の自己共分散母関数より、 g_Y(z) = \frac{  \sigma^2  } { (1 - \phi z^{-1})(1 - \phi z) } を用いて、

 \displaystyle f(\lambda) = \frac{1}{2\pi} g_Y( e^{-i\lambda} ) \\
= \displaystyle    \frac{1}{2\pi}  \frac{  \sigma^2  } { (1 - \phi (e^{-i\lambda})^{-1})(1 - \phi e^{-i\lambda}) }  \\
= \displaystyle    \frac{1}{2\pi}  \frac{  \sigma^2  } { (1 - \phi e^{i\lambda} )(1 - \phi e^{-i\lambda}) }  \\
= \displaystyle    \frac{1}{2\pi}  \frac{  \sigma^2  } { 1 -  \phi e^{i\lambda}  -   \phi e^{-i\lambda} +  \phi e^{i\lambda} \phi e^{-i\lambda}    }     \\
= \displaystyle    \frac{1}{2\pi}  \frac{  \sigma^2  } { 1 + \phi^2  -  \phi (e^{i\lambda} +  e^{-i\lambda} ) }     \\
= \displaystyle    \frac{1}{2\pi}  \frac{  \sigma^2  } { 1 + \phi^2  -  2 \phi \frac{e^{i\lambda} +  e^{-i\lambda} }{2}  }     \\
= \displaystyle    \frac{1}{2\pi}  \frac{  \sigma^2  } { 1 + \phi^2  -  2 \phi \cos(\lambda ) }     \\

となる。

参照参考

axjack is said to be an abbreviation for An eXistent JApanese Cool Klutz.