「大人の教養・知識・気付き」を伸ばすブログ

※今月(8月)は一部コンテンツを隔週更新にします(夏休みです…)。 一流の大人(ビジネスマン、政治家、リーダー…)として知っておきたい、教養・社会動向を意外なところから取り上げ学ぶことで“気付く力”を伸ばすブログです。

MENU

時系列解析の基礎(06/XX)

 以下の書籍

を中心に時系列解析を勉強していきます。

5. VARモデル

 自己回帰モデルを多変量に拡張したものをベクトル自己回帰(\mathrm{VAR})モデルという。\mathrm{VAR}モデルを用いる目的は、

  • 複数の変数を用いることで予測精度を向上させること
  • 変数化の動学的関係の分析を行うこと

の2つにある。特に後者ではグレンジャー因果性、インパルス応答関数や分散分解といった強力なツールを提供できる点が便利である。

5.1 弱定常ベクトル過程

 \mathrm{VAR}モデルはモデルに含める変数\boldsymbol{y}_t={}^{t}(y_{1,t},y_{2,t},\cdots,y_{n,t})を定めることに始まる。重要なことは、分析者が同額的関係に興味のある変数をモデルに含めることである*1
 また自己相関や定常性などを多変量に拡張する。
 まず期待値ベクトル\mathbb{E}\left[\boldsymbol{y}_t\right]



\begin{aligned}
\mathbb{E}\left[\boldsymbol{y}_t\right]={}^{t}\left(E[y_{1,t}],\cdots,E[y_{n,t}]\right)
\end{aligned}


で定義される。
 次に自己共分散を多変量に拡張したk次自己共分散行列は



\begin{aligned}
\mathbb{Cov}\left[\boldsymbol{y}_t,\boldsymbol{y}_{t-k}\right]=
\begin{bmatrix}
\mathrm{Cov}[y_{1,t},y_{1,t-k}]&\mathrm{Cov}[y_{1,t},y_{2,t-k}]&\cdots&\mathrm{Cov}[y_{1,t},y_{n,t-k}]\\
\mathrm{Cov}[y_{2,t},y_{1,t-k}]&\mathrm{Cov}[y_{2,t},y_{2,t-k}]&\cdots&\mathrm{Cov}[y_{2,t},y_{n,t-k}]\\
\vdots&\vdots&\ddots&\vdots\\
\mathrm{Cov}[y_{n,t},y_{1,t-k}]&\mathrm{Cov}[y_{n,t},y_{2,t-k}]&\cdots&\mathrm{Cov}[y_{n,t},y_{n,t-k}]\\
\end{bmatrix}
\end{aligned}


で定義される。
 一般に期待ベクトルと自己共分散関数は時点tの関数であるが、これらが期待ベクトルと自己共分散関数がtに依存しない場合にそのベクトル過程は弱定常であると言われる。以降、弱定常を仮定し、期待ベクトルを\boldsymbol{\mu}k次自己共分散行列を\boldsymbol{\Gamma}_kと書くことにする。
 自己共分散行列は単位に依存する(=変数間で水準感が相違し得る)ため、異時点における2変数間の関係の強弱を判断することができない。そこで自己共分散行列を基準化した自己相関行列を



\begin{aligned}
\boldsymbol{\rho}_k=\mathbb{Cor}\left[\boldsymbol{y}_{t},\boldsymbol{y}_{t-k}\right]=
\begin{bmatrix}
\mathrm{Cor}[y_{1,t},y_{1,t-k}]&\mathrm{Cor}[y_{1,t},y_{2,t-k}]&\cdots&\mathrm{Cor}[y_{1,t},y_{n,t-k}]\\
\mathrm{Cor}[y_{2,t},y_{1,t-k}]&\mathrm{Cor}[y_{2,t},y_{2,t-k}]&\cdots&\mathrm{Cor}[y_{2,t},y_{n,t-k}]\\
\cdots&\cdots&\ddots&\cdots\\
\mathrm{Cor}[y_{n,t},y_{1,t-k}]&\mathrm{Cor}[y_{n,t},y_{2,t-k}]&\cdots&\mathrm{Cor}[y_{n,t},y_{n,t-k}]\\
\end{bmatrix}
\end{aligned}


で定義する。\boldsymbol{D}=\mathrm{diag}\left(V[y_t],\cdots,V[y_n]\right)を用いれば、



\begin{aligned}
\boldsymbol{\rho}_k=\boldsymbol{D}^{-\frac{1}{2}}\boldsymbol{\Gamma}_k\boldsymbol{D}^{-\frac{1}{2}}
\end{aligned}


と書くこともできる。
 最後にホワイトノイズを拡張する。ベクトル過程\boldsymbol{\varepsilon}_tが、すべての時点tにおいて



\begin{aligned}
\mathbb{E}[\boldsymbol{\varepsilon}_t]&=\boldsymbol{0},\\
\mathbb{E}[\boldsymbol{\varepsilon}_t\boldsymbol{\varepsilon}_{t-k}]&=\begin{cases}
\boldsymbol{\Sigma},&k=0,\\
\boldsymbol{0},&k\neq0
\end{cases}
\end{aligned}


を満たすとき、\boldsymbol{\varepsilon}_tをベクトルホワイトノイズという。\boldsymbol{\varepsilon}_tが分散共分散行列\boldsymbol{\Sigma}を持つベクトルホワイトノイズであることを\boldsymbol{\varepsilon_t}\sim\mathrm{W.N.}(\boldsymbol{\Sigma})と書くことにする。

5.1.1 スペクトル表示

 k次自己共分散行列



\begin{aligned}
\mathbb{Cov}\left[\boldsymbol{y}_t,\boldsymbol{y}_{t-k}\right]=
\begin{bmatrix}
\mathrm{Cov}[y_{1,t},y_{1,t-k}]&\mathrm{Cov}[y_{1,t},y_{2,t-k}]&\cdots&\mathrm{Cov}[y_{1,t},y_{n,t-k}]\\
\mathrm{Cov}[y_{2,t},y_{1,t-k}]&\mathrm{Cov}[y_{2,t},y_{2,t-k}]&\cdots&\mathrm{Cov}[y_{2,t},y_{n,t-k}]\\
\vdots&\vdots&\ddots&\vdots\\
\mathrm{Cov}[y_{n,t},y_{1,t-k}]&\mathrm{Cov}[y_{n,t},y_{2,t-k}]&\cdots&\mathrm{Cov}[y_{n,t},y_{n,t-k}]\\
\end{bmatrix}
\end{aligned}


\mathrm{Fourirer}変換した



\begin{aligned}
p_{jk}(f)=\displaystyle{\sum_{l=-\infty}^{\infty}\mathrm{Cov}[y_{j,t},y_{k,t-l}]e^{-2pi i lf}}
\end{aligned}


をクロススペクトル密度関数もしくはクロススペクトルという*2。またl次正方行列P(f)



\begin{aligned}
P(f)=\begin{bmatrix}
p_{11}(f)&p_{12}(f)&\cdots&p_{1l}(f)\\
\vdots&\vdots&\ddots&\vdots\\
p_{l1}(f)&p_{l2}(f)&\cdots&p_{ll}(f)
\end{bmatrix}
\end{aligned}


と定義すれば、これをスペクトル密度行列と呼ぶ。

5.1.2 コヒーレンシー

 クロススペクトルp_{jk}(f)は、



\begin{aligned}
\alpha_{jk}(f)&=\sqrt{(\mathrm{Re}\{p_{jk}(f)\}^2)^2+(\mathrm{Im}\{p_{jk}(f)\}^2)^2},\\
\phi_{jk}(f)&=\arctan\left(\displaystyle{\frac{\mathrm{Im}\{p_{jk}(f)\}}{\mathrm{Re}\{p_{jk}(f)\}}}\right)
\end{aligned}


とおけば、


\begin{aligned}
p_{kj}(f)=\alpha_{jk}(f)e^{i\phi_{jk}(f)}
\end{aligned}


と表現できる。このとき\alpha_{jk}(f)を振幅スペクトル、\phi_{jk}(f)を位相スペクトルという。また



\begin{aligned}
\mathrm{coh}_{jk}(f)=\displaystyle{\frac{\alpha_{jk}(f)^2}{p_{jj}(f)p_{kk}(f)}}
\end{aligned}


は時系列y_{j,t},y_{i,t}の周波数fにおける周波数成分間の相関係数の二乗に相当する量でコヒーレンシーと呼ぶ。
 ホワイトノイズの\boldsymbol{\varepsilon}_tの各成分が互いに無相関で、その分散共分散行列が対角行列W=\mathrm{diag}(\sigma_1^2,\cdots,\sigma_l^2)となる場合には、第i成分のパワースペクトル*複素共役を表す記号だとして



\begin{aligned}
p_{ii}(f)=\displaystyle{\sum_{j=1}^{l}b_{ij}(f)\sigma_j^2b_{ij}(f)^{*}}=\displaystyle{\sum_{j=1}^{l}|b_{ij}(f)|^2\sigma_j^2}
\end{aligned}


と書くことができる。これは第i成分の周波数fでの変動のパワースペクトルl個のノイズ源の影響に分解でき、その影響の大きさが|b_{ij}(f)|^2で表されることを示している。このため



\begin{aligned}
r_{ij}(f)=\displaystyle{\frac{|b_{ij}(f)|^2\sigma_j^2}{p_{ii}(f)}}
\end{aligned}


とおくと、これはy_{i,t}の周波数fにおける変動のうちホワイトノイズに起因する割合を表し、相対パワー寄与度と呼ばれる。

5.2 VARモデル

 ベクトル自己回帰(\mathrm{VAR})モデルは\mathrm{AR}モデルをベクトルに拡張したもので、\mathrm{VAR}(p)モデルは\boldsymbol{y}_tを定数と自身のp期前の値に回帰したモデル、すなわち



\begin{aligned}
\boldsymbol{y}_t=\boldsymbol{c}+\boldsymbol{\Phi}_1\boldsymbol{y}_{t-1}+\cdots+\boldsymbol{\Phi}_p\boldsymbol{y}_{t-p}+\boldsymbol{\varepsilon}_t,\boldsymbol{\varepsilon}_t\sim\mathrm{W.N.}(\boldsymbol{\Sigma})
\end{aligned}


というモデルである。
 \mathrm{VAR}モデルも常に定常とは限らず、\mathrm{AR}特性方程式


\begin{aligned}
\left|\boldsymbol{I}-\boldsymbol{\Phi}_1z-\cdots-\boldsymbol{\Phi}_p z^p\right|=0
\end{aligned}

のすべての根の絶対値が1よりも大きければ定常性を持つ。また定常\mathrm{VAR}過程は\mathrm{VMA}(\infty)過程に書き換えることができる。
 \mathrm{VAR}モデルの期待値は



\begin{aligned}
\boldsymbol{\mu}=\mathbb{E}[\boldsymbol{y}_t]=\left(\boldsymbol{I}-\boldsymbol{\Phi}_1z-\cdots-\boldsymbol{\Phi}_p z^p\right)^{-1}\boldsymbol{c}
\end{aligned}


で与えられる。また自己共分散は\mathrm{Yule\ Walker}方程式



\begin{aligned}
\boldsymbol{\Gamma}_k=\boldsymbol{\Phi}_1 \boldsymbol{\Gamma}_{k-1}+\cdots+\boldsymbol{\Phi}_p\boldsymbol{\Gamma}_{k-p}
\end{aligned}


を解くことで得られる。

5.2.1 VARモデルの推定

 \mathrm{VAR}モデルの各方程式は同時点のその他の変数を含まないため、同時方程式モデルではない。ただし誤差項を通じた相関により関係が無いわけではなく、そのために見かけ上無関係な回帰モデル(\mathrm{SUR}:seemingly unrelated regression model)と呼ぶ。
 一般的には、\mathrm{SUR}モデルは誤差項の相関を考慮するためにすべての回帰式を同時に推定する必要がある。しかし\mathrm{VAR}モデルは各方程式を個別に最小二乗法により推定した推定量が漸近有効性を持つことが知られている。
 次数の選択には情報量基準を用いる方法があるが、パラメータ数が多いために有意でないパラメータも含める可能性もある。そのため経験論から決めることもある。

5.2.2 VMAモデル、VARMAモデル

 多変量時系列過程\boldsymbol{y}_tが方程式



\begin{aligned}
\Phi(B)\boldsymbol{y}_t&=\Theta(B)\boldsymbol{\varepsilon}(t),\\
\Phi(z)&=\left(\phi_{ij}(z)\right)_{1\leq i\leq m,1\leq j\leq m},\ \phi_{ij}(z)=\displaystyle{\sum_{k=0}^{p_{ij}}\phi_{ijk}z^k},\\
\Theta(z)&=\left(\theta_{ij}(z)\right)_{1\leq i\leq m,1\leq j\leq m},\ \theta_{ij}(z)=\displaystyle{\sum_{k=0}^{p_{ij}}\theta_{ijk}z^k},\\
\end{aligned}


を満たし、さらに

  • \{\boldsymbol{\varepsilon}(t)\}が正則な分散共分散行列\Sigmaを持つホワイトノイズ
    \begin{aligned}\mathbb{E}\left[\boldsymbol{\varepsilon}(t+h){}^{t}\boldsymbol{\varepsilon}(t)\right]=\begin{cases}\Sigma,&h=0,\\O,&h\neq0\end{cases}\end{aligned}
  • |z|\leq1において\mathrm{det}(\Phi(z))\neq0

を満たすとき、\boldsymbol{y}_tは多変量\mathrm{ARMA}モデルに従うという。\Theta(z)=1のとき\mathrm{VAR}モデルに帰着する。


 \mathrm{VMA}モデルや\mathrm{VARMA}モデルは定義できるものの、実用上用いられない。これは、\mathrm{VMA}モデルや\mathrm{VARMA}モデルはパラメータ推定が困難であること、また\mathrm{VAR}モデルはパラメータが多いために相当の説明力を持つことが多いことに起因する。

参考文献

  • 沖本竜義(2010)「経済・ファイナンスデータの 計量時系列分析」(朝倉書店)
  • 北川源四郎(2020)「Rによる時系列モデリング入門」(岩波書店
  • 柴田里程(2017)「時系列解析」(共立出版)
  • 白石博(2022)「時系列データ解析」(森北出版)
  • 萩原淳一郎,瓜生真也,牧山幸史[著],石田基広[監修](2018)「基礎からわかる時系列分析 Rで実践するカルマンフィルタ・MCMC・粒子フィルタ」(技術評論社)

*1:ただしあまりに変数の数を増やすとモデルの推定精度が落ち正確な解析ができなくなる点に注意しなければならない。また後述するように、変数を並べる順序も関係する。

*2:ここではi虚数単位である。

プライバシーポリシー お問い合わせ