「大人の教養・知識・気付き」を伸ばすブログ

一流の大人(ビジネスマン、政治家、リーダー…)として知っておきたい、教養・社会動向を意外なところから取り上げ学ぶことで“気付く力”を伸ばすブログです。データ分析・語学に力点を置いています。 →現在、コンサルタントの雛になるべく、少しずつ勉強中です(※2024年1月21日改訂)。

MENU

計量経済学の基礎(16/22)

 計量経済学を学んでいく。
 まずは

を中心に参照して基礎を学んでいく。

今日のまとめ

  • 系列相関がある場合、最良線形不偏推定量(BLUE)は不均一分散がある場合と同様に元のモデルを変形して古典的回帰モデルをつくり、その変形したモデルに最小二乗法を適用する。

8. 一般化古典的回帰モデル

 古典的過程モデルにおいて攪乱項の分散に関する仮定

  • \boldsymbol{\varepsilon}の分散は一定で各要素が他から独立している。

を除いた3つの仮定

  (1) \boldsymbol{X}は非確率的である。
  (2) \mathbb{E}[\boldsymbol{Y}]=\boldsymbol{X\beta}であり\mathbb{E}[\boldsymbol{\varepsilon}]=\boldsymbol{0}
  (3) \boldsymbol{X}の階数はkである。

を置いた回帰モデルを一般化古典的回帰モデルと呼ぶ。

8.3 系列相関

 攪乱項の間に相関が存在する場合、とくに時系列データを用いて構築されたモデルにおいて攪乱項の間に相関がある場合、系列相関があるという。すなわち系列相関がある場合、


\begin{aligned}
\mathrm{Cov}[\varepsilon_i,\varepsilon_j]\neq0,\ i\neq j
\end{aligned}

が成り立つときをいう。

8.3.4 系列相関がある場合のBLUE

 系列相関がある場合、最良線形不偏推定量(BLUE)は不均一分散がある場合と同様に元のモデルを変形して古典的回帰モデルをつくり、その変形したモデルに最小二乗法を適用する。
 まず1期のラグ値Y_{t-1}\rho倍してY_tからそれを引いてモデルを変形すれば、


\begin{aligned}
Y_t-\rho Y_{t-1}=(1-\rho)\alpha+\beta(X_t-\rho X_{t-1})+(\varepsilon_{t}-\rho \varepsilon_{t-1})
\end{aligned}

を得る。{Y_t}^{*}=Y_t-\rho Y_{t-1}, \alpha^{*}=(1-\rho)\alpha,{X_t}^{*}=X_t-\rho X_{t-1},\nu_t=\varepsilon_{t}-\rho \varepsilon_{t-1}とおいてモデルを


\begin{aligned}
{Y_t}^{*}=\alpha^{*}+\beta{X_t}^{*}+\nu_t
\end{aligned}

と書き直す。
 このようにすればT-1個の観測値に関する古典的回帰モデルを得られ、このときのBLUEは


\begin{aligned}
\hat{\beta}^{*}=\displaystyle{\frac{\displaystyle{\sum_{t=1}^{T}{x_t}^{*}{Y_t}^{*}}}{\displaystyle{\sum_{t=1}^{T}{{x_t}^{*}}^{2}}}},\ x_t^{*}=X_t^{*}-E[X_t^{*}]
\end{aligned}

で得られ、


\begin{aligned}
V[\hat{\beta}^{*}]=\displaystyle{\frac{\sigma_{\nu}^2}{\displaystyle{\sum_{t=1}^{T}{{x_t}^{*}}^{2}}}}, \sigma_{\nu}^2=V[\nu_t]
\end{aligned}

である。ただし、厳密に言えば、Y_1の情報が反映されていないため、近似的なBLUEである点に注意する必要がある。

8.3.5 系列相関の検定方法

 不均一分散の検定と同様に、系列相関の有無を調べる第一の方法は図示することである。もし系列相関があるならば、何らかの傾向性をもってプロットされるはずである。

 別の方法としては、Durbin-Watson検定がある。同検定は


\begin{aligned}
H_0&:\ \rho=0,\\
H_1&:\ \rho\neq0
\end{aligned}

という仮説検定を行うものである。
 具体的には検定統計量として


\begin{aligned}
DW=\displaystyle{\sum_{t=2}^{T}\frac{(e_t-e_{t-1})^2}{\displaystyle{\sum_{t^{\prime}=1}^{T}e_{t^{\prime}}^2}}}
\end{aligned}

を用いる。このとき


\begin{aligned}
DW&=\displaystyle{\sum_{t=2}^{T}\frac{{e_t}^2-2e_te_{t-1}+{e_{t-1}}^2}{\displaystyle{\sum_{t^{\prime}=1}^{T}e_{t^{\prime}}^2}}}\\
&\approx 2-\displaystyle{\sum_{t=2}^{T}\frac{2e_te_{t-1}}{\displaystyle{\sum_{t^{\prime}=1}^{T}e_{t^{\prime}}^2}}}
\end{aligned}

であり、右辺第2項は標本相関係数に近似できる。すなわち


\begin{aligned}
&DW\approx 2-2\hat{\rho}\\
\Leftrightarrow\ &\hat{\rho}\approx1-\displaystyle{\frac{DW}{2}}
\end{aligned}

が成り立つ。
 DW検定は以下の4つの欠点があることに留意しなければならない。

   (1) 検定は1階の系列相関にのみ適用でき、高次の系列相関には適用できない。
   (2) 説明変数が確率的な場合は適用できない。
   (3) 説明変数に定数項が無いと適用できない。
   (4) クロスセクションには意味を持たない。
8.3.6 Durbinのh検定

 説明変数に1期のラグ付き目的変数が含まれる場合、すなわち


\begin{aligned}
Y_t={}^{t}\boldsymbol{x}_t\boldsymbol{\beta}+\gamma Y_{t-1}+\varepsilon_t
\end{aligned}

に対して、\rho=0ならば統計量


\begin{aligned}
h=\hat{\rho}\displaystyle{\sqrt{\frac{T}{1-T V[\hat{\gamma}]}}}
\end{aligned}

が漸近的に標準正規分布に従う。
 具体的には、以下の手順を取る:

   (1) 係数を最小二乗法で推定する。
   (2) V[\hat{\gamma}]の推定値を計算する。
   (3) DWを用いて\hat{\rho}を計算する。
   (4) hを計算する。
   (5) hの値を100p\%点と比較して棄却を判断する。
8.3.7 Breusch-Godfrey検定

 攪乱項がp\geq1階の自己回帰過程


\begin{aligned}
\varepsilon_{t}=\rho_1 \varepsilon_{t-1}+\rho_2\varepsilon_{t-2}+\cdots+\rho_p\varepsilon_{t-p}+\nu_t
\end{aligned}

にあるか、


\begin{aligned}
H_0:\ &\rho_1=\cdots=\rho_p=0\\
H_1:\ &少なくとも1つの\rho_iが\rho_i\neq0,i=1,2,\cdots,p
\end{aligned}

を検定する。

   (1) OLSにより残差e_tを求める。
   (2) e_t\boldsymbol{x}_tおよびp個のラグ、e_{t-1},\cdots,e_{t-p}に回帰して決定係数R^2を計算する。

 大標本において(T-p)R^2は漸近的に自由度pカイ二乗分布に従う。

8.4 方程式系

 相互に関連する目的変数を系として捉えるものがある。

 たとえば企業it年度における投資I_{it}を個々の企業に特有の要因\boldsymbol{x}_{it}および産業全体に影響する変数\boldsymbol{z}_tに依存するとして、M個の企業についてT年間データが蓄積された場合のモデルは以下で与えられる:


\begin{aligned}
I_{it}=f(\boldsymbol{x}_{it},z_t)={}^{t}\boldsymbol{x}_{it}\boldsymbol{\beta}_{i}+{}^{t}\boldsymbol{z}_t\gamma_i+\varepsilon_{it},i=1,\cdots,M,t=1,\cdots,T
\end{aligned}

 これは


\begin{aligned}
\boldsymbol{Y}&=\boldsymbol{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon},\\
\boldsymbol{Y}&=\begin{bmatrix}Y_1\\\vdots\\Y_M\end{bmatrix},\\
\boldsymbol{X}&=\begin{bmatrix}
X_1     &     &\cdots&O  \\
\vdots&X_2&      &   \\
           &    &\ddots&   \\
O        &\cdots&      &X_M
\end{bmatrix},\\
\boldsymbol{\beta}&=\begin{bmatrix}\beta_1\\\vdots\\\beta_M\end{bmatrix},\\
\boldsymbol{\varepsilon}&=\begin{bmatrix}\varepsilon_1\\\vdots\\\varepsilon_M\end{bmatrix},\\
\end{aligned}

と書け、


\begin{aligned}
\mathbb{V}[\boldsymbol{\varepsilon}]=\Sigma=\begin{bmatrix}\sigma_{11} I&\sigma_{12} I&\cdots&\sigma_{1M} I\\\sigma_{21} I&\sigma_{22} I&\cdots&\sigma_{2M} I\\\vdots&\sigma_{ij}&\cdots&\vdots\\\sigma_{M1} I&\sigma_{M2} I&\cdots&\sigma_{MM} I\end{bmatrix}
\end{aligned}

である。このようなモデルをSeemingly Unrelated Regression Equationsと呼ぶ。

   (1) M個の方程式を最小二乗法で推定し残差\boldsymbol{e}_1,\cdots,\boldsymbol{e}Mを得る。
   (2) \sigma_{ij}\hat{\sigma}_{ij}=\displaystyle{\frac{{}^{t}\boldsymbol{e}_{i}\boldsymbol{e}_{j}}{n}}で推定し、\hat{\Sigma}を作成する。
   (3) \hat{\beta}=\left(\boldsymbol{X}\hat{\Sigma}^{-1}\boldsymbol{Y}\right)^{-1}{}^{t}\boldsymbol{X}\hat{\Sigma}^{-1}\boldsymbol{Y}で推定する。
プライバシーポリシー お問い合わせ