「大人の教養・知識・気付き」を伸ばすブログ

一流の大人(ビジネスマン、政治家、リーダー…)として知っておきたい、教養・社会動向を意外なところから取り上げ学ぶことで“気付く力”を伸ばすブログです。データ分析・語学に力点を置いています。 →現在、コンサルタントの雛になるべく、少しずつ勉強中です(※2024年1月21日改訂)。

MENU

計量経済学の基礎(22/22)

 計量経済学を学んでいく。
 まずは

を中心に参照して基礎を学んでいく。

今日のまとめ

  • 説明変数と攪乱項の相関を検定する手法を特定化のテストという。帰無仮説が棄却されない場合には不偏であるもののそうでない場合にはバイアスが発生する推定量\boldsymbol{T}_0と特定化の帰無仮説の真偽に拘わらず不偏な推定量\boldsymbol{T}が存在する仮定するとき、もし帰無仮説が棄却されるならば、2つの推定量は異なる値へ確率収束するはずである。したがって両者に有意な差が無いならば帰無仮説は棄却できないと考えられる。これを検定に活用する。
  • Hausman検定や(非)入れ子型仮説、J検定を用いる。

15. 特定化のテスト

 今まで学んできたことを踏まえると、回帰モデルで分析する場合、説明変数と攪乱項の系列・クロスセクション相関など、モデル構造に関する仮定を検証する必要性があることが分かる。ここでは説明変数と攪乱項の相関を検定する手法を取り扱う。以降、帰無仮説としてH_0: \mathrm{Cov}[\boldsymbol{\varepsilon},\boldsymbol{X}]=0を設定する。

15.1 特定化の検定

 前節で述べたように、個人効果(攪乱項)と説明変数に相関があれば固定効果モデルを、そうでなければランダム効果モデルを取り扱う。これは相関があればランダム効果モデルの推定量(および一般化最小二乗推定量)にバイアスが発生するからであった。
 これに着想して、帰無仮説が棄却されない場合には不偏であるもののそうでない場合にはバイアスが発生する推定量\boldsymbol{T}_0と特定化の帰無仮説の真偽に拘わらず不偏な推定量\boldsymbol{T}が存在する仮定するとき、もし帰無仮説が棄却されるならば、2つの推定量は異なる値へ確率収束するはずである。したがって両者に有意な差が無いならば帰無仮説は棄却できないと考えられる。
 具体的には、特定化の検定ではk次元母数ベクトルを\boldsymbol{\beta}とし、帰無仮説の下での有効推定量として\boldsymbol{T}_0をまず推定する。このときもう1つの不偏推定量\boldsymbol{T}との差\boldsymbol{T}-\boldsymbol{T}_0の分散は推定量の分散の差が\mathbb{V}[\boldsymbol{T}]-\mathbb{V}[\boldsymbol{T}_0]となる。

15.2 有効推定量と不偏推定量の共分散

 有効推定量\boldsymbol{T}_0ともう1つの不偏推定量\boldsymbol{T}の性質を調べる。まず両者とも不偏であるから、


\begin{aligned}
\mathbb{E}[\boldsymbol{T}_0]=\mathbb{E}[\boldsymbol{T}]=\boldsymbol{\theta}
\end{aligned}

である。また\boldsymbol{T}_0は有効であるから、任意の不偏推定量の中で最も分散が小さい、すなわち


\begin{aligned}
\mathbb{V}[\boldsymbol{T}]\leq\mathbb{V}[\boldsymbol{T}_0]
\end{aligned}

が成り立つ。ここで不等号\leqは全成分についてその不等号が成り立つことを意味する。
 したがって


\begin{aligned}
\mathbb{Cov}[\boldsymbol{T}_0,\boldsymbol{T}_0-\boldsymbol{T}]&=\boldsymbol{0},\\
\mathbb{Cov}[\boldsymbol{T}_0,\boldsymbol{T}]&=\mathbb{V}[\boldsymbol{T}_0],\\
\mathbb{V}[\boldsymbol{T}-\boldsymbol{T}_0]&=\mathbb{V}[\boldsymbol{T}]-\mathbb{V}[\boldsymbol{T}_0]
\end{aligned}

が成り立つ。
 またこの条件下で\boldsymbol{T}-\boldsymbol{T}_0が漸近的にk次元正規分布に従うとき、


\begin{aligned}
q={}^{t}(\boldsymbol{T}-\boldsymbol{T}_0)\left(\mathbb{V}[\boldsymbol{T}]-\mathbb{V}[\boldsymbol{T}_0]\right)^{-1}(\boldsymbol{T}-\boldsymbol{T}_0)
\end{aligned}

は漸近的に自由度kカイ二乗分布に従う。

15.3 Hausman検定

 帰無仮説が棄却できなければ\boldsymbol{T},\boldsymbol{T}_0の差は小さく統計量qも小さくなるはずである。したがって検定には片側検定を用いる。その一致推定量を用いても上述した漸近分布に関する定理は成り立つ。したがって特定化の検定は次の手続きで行うことができる。

   (1) ステップ1
      帰無仮説の下での有効推定量\boldsymbol{T}_0とその分散共分散行列の推定値\mathbb{V}[\boldsymbol{T}_0]を計算する。
   (2) ステップ2
      帰無仮説の真偽にかかわらず不偏性をもつ推定量\boldsymbol{T}とその分散共分散行列の推定値\mathbb{V}[\boldsymbol{T}]を計算する。
   (3) ステップ3
      検定量q={}^{t}(\boldsymbol{T}-\boldsymbol{T}_0)\left(\mathbb{V}[\boldsymbol{T}]-\mathbb{V}[\boldsymbol{T}_0]\right)^{-1}(\boldsymbol{T}-\boldsymbol{T}_0)を計算する。その値が自由度kカイ二乗分布の限界値を超えるならば帰無仮説を棄却する。

15.4 モデル選択

 説明変数の組み合わせや関数形などに複数の候補がある場合、どのモデルを構築すべきかが問題になる。これをモデル選択という。
 モデル選択には2つのアプローチがある。1つはデータの当てはまりや予測能力などを測る指標からその値を最も大きくなるモデルを選ぶ手法である。このアプローチでは決定的な指標が存在しない点が課題である。またそのような最大の値をもたらすモデルが必ずしも満足するものになるとは限らない。
 もう一つの方法は対立するモデルの推定結果について仮説検定をしながらモデルの妥当性を判断するものである。選択対象モデルが入れ子型ならば通常のt検定やF検定で選択できる。他方で非入れ子型ならば別の方法を検討する。

15.5 入れ子型仮説

 2つのモデル


\begin{aligned}
A:\ Y&=\alpha+\beta X+\gamma Z+\varepsilon,\\
B:\ Y&=\alpha+\beta X+\varepsilon
\end{aligned}

を考える。モデルの選択にはモデルAを推定し、Zの係数\gamma=0という帰無仮説についてt検定を行う。もしくはモデルA,Bを推定し残差二乗和からF検定を行う。帰無仮説が棄却されればモデルA、棄却されなければモデルBが選択される。またモデルAYXが影響しないという仮説は


\begin{aligned}
C:\ Y=\alpha+\gamma Z+\varepsilon
\end{aligned}

を推定しモデルAの結果と比べることでテストできる。
 仮説がより一般的なモデルの特殊ケースとなる場合、t検定またはF検定でテストが行え、それに基づきモデル選択ができた。このようにモデル同士を比較できる仮説が書ける場合は入れ子型仮説と呼ばれる。

15.6 非入れ子型仮説

 Yを説明数複数のモデル候補があるときにそれぞれの説明変数が共通とならない組み合わせがあり得る。すなわち


\begin{aligned}
P:\ Y&=\boldsymbol{X}\boldsymbol{\beta}_1+\boldsymbol{\varepsilon}_1,\\
Q:\ Y&=\boldsymbol{Z}\boldsymbol{\beta}_2+\boldsymbol{\varepsilon}_2
\end{aligned}

で、\boldsymbol{X},\boldsymbol{Z}には両方に含まれる成分(説明変数)とそれぞれにしか含まれない成分(説明変数)があるものとする。このような仮説の関係は非入れ子型という。

15.6.1 非入れ子型F検定

 モデルを選択する場合の1つの方法としては2つを混合したモデルを推定することが考えられる。モデルPに含まれるがQに含まれない説明変数を\boldsymbol{X}^{*}、逆にモデルQにのみ含まれる説明変数を\boldsymbol{Z}^{*}、両方に入る説明変数を\boldsymbol{Z}とする。そしてこれらを混合したモデル


\begin{aligned}
R:\ Y=\boldsymbol{X}^{*}\boldsymbol{\beta}+\boldsymbol{Z}^{*}\boldsymbol{\gamma}+\boldsymbol{W}\boldsymbol{\delta}+\boldsymbol{\varepsilon}
\end{aligned}

を考える。もしモデルR\boldsymbol{\beta}\neq\boldsymbol{0},\boldsymbol{\gamma}=\boldsymbol{0}ならばモデルP,モデルR\boldsymbol{\beta}=\boldsymbol{0},\boldsymbol{\gamma}\neq\boldsymbol{0}ならばモデルQを採用する。このような検定を非入れ子F検定と呼ぶ。
 非入れ子F検定には複数の問題点がある。

   (1) もし\boldsymbol{X}^{*},\boldsymbol{Z}^{*}が多重共線の関係にあると誤判断を起こす蓋然性が高くなる。
   (2) モデルP,Qのいずれを起点にするかで結果が変わり得る。
   (3) モデルP,Qを比較している訳ではない。
   (4) 実際上、モデルRの説明変数の数が多くなり、多重共線が起こりやすい。
15.6.2 Davidson-MacKinnon検定

 非入れ子F検定の問題点を解決する手法としてDavidson-MacKinnon検定がある。
 モデルPを検定対象とし、以下の手続きを取る:

   ステップ1 モデルQを最小二乗法にて推定する。\hat{Y}=\boldsymbol{Z}\hat{\boldsymbol{\gamma}}でモデルQの予測値を計算する。
   ステップ2 モデルY=\boldsymbol{X}\boldsymbol{\beta}+\alpha\hat{Y}+\boldsymbol{\varepsilon}を推定し、仮説\alpha=0を検定する。

 仮説が棄却されなければモデルPはモデルQにより棄却されない。

 検定のアイディアは次のとおりである。2つのモデルを結合したモデル


\begin{aligned}
Y=(1-\alpha)\boldsymbol{X}\boldsymbol{\beta}+\alpha(\boldsymbol{Z}\boldsymbol{\gamma})+\varepsilon
\end{aligned}

を考える。ここで\alpha0,1のいずれなのかを検定すればよい。直接的に\alphaを推定できないものの、\boldsymbol{Z}\boldsymbol{\gamma}\hat{Y}=\boldsymbol{Z}\hat{\boldsymbol{\gamma}}に置き換えて推定すればよいことが知られている。さらに\alphaが漸近的にN(0,\sigma^2)に従うことが知られている。このような手続をJ検定と呼ぶ。

15.6.3 J検定と予測

 J検定は予測精度の比較からモデルを選択していると解釈することもできる。
 2つのモデルから2つの予測値(\hat{Y}_1,\hat{Y}_2)が得られているとする。これらを結合すればより良い予測が得られるはずである。すなわち


\begin{aligned}
\hat{Y}=(1-a)\hat{Y}_1+a\hat{Y}_2
\end{aligned}

とし予測誤差をv=Y-\hat{Y}となる。これから


\begin{aligned}
Y-\hat{Y}_1=a(\hat{Y}_2-\hat{Y}_1)+v
\end{aligned}

が得られる。モデルQの予測を取り入れることにより予測誤差が有意に減少するならばモデルaの推定値は有意になる。この手法をモデルPの予測を用いてモデルQを検定することもできる。

15.6.4 J検定の限界

 J検定では両方のモデルを共に棄却する場合やともに受容する場合があり得る。前者は両モデルとも説明力が不充分であることを意味する。後者はどちらのモデルでも説明でき、両者の良し悪しを決定できないことを意味する。これらの場合「このデータからは結論が出せない」との結論を出すのが無難である。

プライバシーポリシー お問い合わせ