「大人の教養・知識・気付き」を伸ばすブログ

一流の大人(ビジネスマン、政治家、リーダー…)として知っておきたい、教養・社会動向を意外なところから取り上げ学ぶことで“気付く力”を伸ばすブログです。現在、コンサルタントの雛になるべく、少しずつ勉強中です(※2024年12月10日改訂)。

MENU

計量経済学を学び直す(1/X)

はじめに

 計量経済学の基礎を学び直したく、

を再度読んでいく。今回は実際にデータを分析することを重視していく。

1. 計量経済学とは

 計量経済学とは、

計測を通じて経済変数間の関係を支配するメカニズムを経済理論とデータに基づき解明していく方法

である。
 以下の手順で議論していく:

 1. 仮説・経済理論の提示
 2. データの収集
 3. 計量経済モデルの定式化
 4. モデルの推定
 5. 仮説検定、適合度の検証
 6. 予測
 7. 政策手段の選択・意思決定への利用

1.1 仮説・経済理論の提示

 経済変数間の関係を支配するメカニズムは関数としてあらわす。Yを目的変数、{X}を説明変数として、


\begin{aligned}
Y=f(X)
\end{aligned}

と抽象化できる。fに関しての仮説を提示するのが最初の段階である。

1.2 データの収集

 Y,Xを計測する尺度を数値化する。分析目的に応じて、時系列データ(時間を追って収集したデータ)と横断面データ(クロスセクションデータ:一時点で多数の観測地を集めたデータ)を使用するのか、また分析方法が変わってくる。

1.3 計量経済モデルの定式化

 関数fとしてどのような形態を想定するか。最も簡単なのは、Xとしての一次式


\begin{aligned}
Y=f(X)=\alpha+\beta X
\end{aligned}

である。ここで\alpha,\betaは定数である。
 このようなモデル形状が「正しい」かは、理論と実際のデータがどれだけ整合的か検証するかは不明である。また厳密に当該モデルが当てはまるとは限らない。
 とはいえ、“大雑把に”データを説明するには有用と言える、すなわち平均的な傾向を表すには有用と考えられる。これを明確に書き下すと、


\begin{aligned}
Y=f(X)+\varepsilon=E\left[Y|X\right]+\varepsilon=\alpha+\beta X+\varepsilon
\end{aligned}

と書ける。ここで\varepsilonYと条件付き期待値との差を表し、攪乱項という。
 他には、たとえば、説明変数の単位変動に対する目的変数の増加率(弾力性)を一定としたモデル


\begin{aligned}
Y=\alpha_{0}X^{\beta}\exp\left(\varepsilon\right)
\end{aligned}

が考えられる。これは、両辺の自然対数を取ることで、


\begin{aligned}
\log Y=\alpha_{0}+\beta \log X+\varepsilon
\end{aligned}

と前述のモデルに帰着できる。

1.4 モデルの推定

 計量経済モデルの特性は\alpha,\betaにより表され、これらはモデルのパラメータと呼ばれる。パラメータは実際のデータから推定する。

1.5 仮説検定、適合度の検証

 推定結果が理論モデルと整合的かどうかを検証するのに、統計的仮説検定により、誤差を勘案しつつ結論を出す。

1.6 予測

 推定結果からYの予測ができる。ただし、予測値は点予測値であり、パラメータの推定誤差および攪乱要因(\varepsilon)に基づく誤差が内包され得る。

1.7 政策手段の選択・意思決定への利用

 もしYがマクロ経済変数であったり、Xが政策手段であったりする場合、政策当局はXを操作することでYを操作でき得る。また特定の政策が経済に与える影響を予測し、最良な選択肢を選ぶことができ得る。

2. 回帰モデルの基礎

2.1 条件付き期待値と直線の当てはめ

 独立変数Xとその従属変数Yを考えるとき、計量経済学における興味の1つがXが与えられたときの平均的なYの値である。この平均的な値を条件付き期待値E\left[Y|X\right]という。条件付き期待値はXの関数


\begin{aligned}
f(X)\equiv E\left[Y|X\right]
\end{aligned}

と見なすことができる。そのため、母集団回帰関数とも呼ばれる。
 データ数をnとすれば、母集団回帰関数と各データ\left(X_i,Y_i\right),i=1,\cdots,nは、


\begin{aligned}
Y_i=E\left[Y|X_i\right]+\varepsilon_i,\ i=1,\cdots,n
\end{aligned}

と書ける。
 母集団回帰関数の形状は厳密な線形関数でないことがほとんどである。しかし未知の母集団回帰関数を推測する際の出発点として、簡素な形状を仮定することが多い。目下、


\begin{aligned}
E\left[Y|X\right]=\alpha+\beta X,\ \alpha,\beta\in\mathbb{R}
\end{aligned}

だと仮定し、


\begin{aligned}
Y_i=\alpha+\beta X_i+\varepsilon_i
\end{aligned}

と書けるものとして分析していく。

2.2 標本回帰関数

 標本から母集団回帰関数を推定したものを標本回帰関数という。標本から標本回帰関数を推計する(パラメータを推定する)手続きを回帰という。

2.3 最小二乗法

 回帰に当たり、どのようにパラメータを推定するか。さまざまな考え方があり得るが、少なくとも客観的な基準の下で推定すべきである。ひとつの考え方は、全体的な誤差を小さくすることである。
 当てはめの誤差e_iは残差と呼ばれ、標本回帰関数を\hat{f}(X)=a+bXとおけば、


\begin{aligned}
e_i=Y_i-\left(a+bX_i\right)
\end{aligned}

と表せる。全体的な誤差を小さくすることは、\displaystyle{\sum_{i=1}^{n}\left|e_i\right|}と翻訳できる。とはいえ、これは数学的に扱いづらく、あまり用いられない。
 代わりに、最小二乗基準による推定が用いられる。残差を用いて残差二乗和RSS


\begin{aligned}
RSS=\displaystyle{\sum_{i=1}^{n}{e_i}^2}=\displaystyle{\sum_{i=1}^{n}\left\{Y_i-\left(a+b X_i\right)\right\}^2}
\end{aligned}

で定義し、この残差二乗和を最小化することを考える。残差二乗和は(a,b)の関数であり、これらの2次関数である。そこで、残差二乗和を両変数で偏微分したものを0とした方程式を連立させることで求めることができる。すなわち、


\begin{aligned}
\begin{eqnarray}
  \left\{
    \begin{array}{l}
    \displaystyle{\frac{\partial RSS}{\partial a}}=-2\displaystyle{\sum_{i=1}^{n}\left\{Y_i-\left(a+b X_i\right)\right\}}=0,\\
    \displaystyle{\frac{\partial RSS}{\partial b}}=-2\displaystyle{\sum_{i=1}^{n}X_i \left\{Y_i-\left(a+b X_i\right)\right\}}=0
    \end{array}
  \right.
\end{eqnarray}
\end{aligned}

を解けばよい。
 まず1つ目の方程式を整理することで、


\begin{aligned}
                        &\displaystyle{\sum_{i=1}^{n}Y_i}-na-b\displaystyle{\sum_{i=1}^{n}X_i}=0,\\
\Leftrightarrow&a=\displaystyle{\frac{1}{n}}\displaystyle{\sum_{i=1}^{n}Y_i}-b\displaystyle{\frac{1}{n}}\displaystyle{\sum_{i=1}^{n}X_i},\\
\Leftrightarrow&a=\bar{Y}-b\bar{X}
\end{aligned}

を得る。ここで、\bar{X}\equiv \displaystyle{\frac{1}{n}}\displaystyle{\sum_{i=1}^{n}X_i},\bar{Y}\equiv \displaystyle{\frac{1}{n}}\displaystyle{\sum_{i=1}^{n}Y_i}とおいた。
 2つ目の方程式を整理した後にこれを代入することで、


\begin{aligned}
                        &\displaystyle{\sum_{i=1}^{n}\left\{X_iY_i-\left(aX_i+b{X_i}^2\right)\right\}}=0,\\
\Leftrightarrow&\displaystyle{\sum_{i=1}^{n}\left\{X_iY_i-\left(aX_i+b{X_i}^2\right)\right\}}=0,\\
\Leftrightarrow&\displaystyle{\sum_{i=1}^{n}X_iY_i}-a\displaystyle{\sum_{i=1}^{n}X_i}-b\displaystyle{\sum_{i=1}^{n}{X_i}^2}=0,\\
\Leftrightarrow&\displaystyle{\sum_{i=1}^{n}X_iY_i}-(\bar{Y}-b\bar{X})\displaystyle{\sum_{i=1}^{n}X_i}-b\displaystyle{\sum_{i=1}^{n}{X_i}^2}=0,\\
\Leftrightarrow&\displaystyle{\sum_{i=1}^{n}X_iY_i}-\bar{Y}\displaystyle{\sum_{i=1}^{n}X_i}-b\left(\displaystyle{\sum_{i=1}^{n}{X_i}^2-\bar{X}\displaystyle{\sum_{i=1}^{n}X_i}}\right)=0,\\
\Leftrightarrow&\displaystyle{\sum_{i=1}^{n}X_i\left(Y_i-\bar{Y}\right)}-b\displaystyle{\sum_{i=1}^{n}X_i\left(X_i-\bar{X}\right)}=0\\
\end{aligned}

を得る。ここに、


\begin{aligned}
\displaystyle{\sum_{i=1}^{n}\left(X_i-\bar{X}\right)}=\displaystyle{\sum_{i=1}^{n}X_i}-\displaystyle{\sum_{i=1}^{n}X_i}=0,\\
\displaystyle{\sum_{i=1}^{n}\left(Y_i-\bar{Y}\right)}=\displaystyle{\sum_{i=1}^{n}Y_i}-\displaystyle{\sum_{i=1}^{n}Y_i}=0
\end{aligned}

より、-\bar{X}\displaystyle{\sum_{i=1}^{n}\left(Y_i-\bar{Y}\right)}=0,b\bar{X}\displaystyle{\sum_{i=1}^{n}\left(X_i-\bar{X}\right)}=0を両辺に加えることで、


\begin{aligned}
                        &\displaystyle{\sum_{i=1}^{n}X_i\left(Y_i-\bar{Y}\right)}-b\displaystyle{\sum_{i=1}^{n}X_i\left(X_i-\bar{X}\right)}=0,\\
\Leftrightarrow&\displaystyle{\sum_{i=1}^{n}(X_i-\bar{X})\left(Y_i-\bar{Y}\right)}-b\displaystyle{\sum_{i=1}^{n}\left(X_i-\bar{X}\right)^2}=0,\\
\Leftrightarrow&b=\displaystyle{\frac{\displaystyle{\sum_{i=1}^{n}(X_i-\bar{X})\left(Y_i-\bar{Y}\right)}}{\displaystyle{\sum_{i=1}^{n}\left(X_i-\bar{X}\right)^2}}},\\
\Leftrightarrow&b=\displaystyle{\frac{\displaystyle{\frac{\displaystyle{\sum_{i=1}^{n}(X_i-\bar{X})\left(Y_i-\bar{Y}\right)}}{n-1}}}{\displaystyle{\frac{\displaystyle{\sum_{i=1}^{n}\left(X_i-\bar{X}\right)^2}}{n-1}}}}
\end{aligned}

が得られる。bの分母はXの標本分散であり、分子はX,Yの標本共分散である。これらをそれぞれ{S_X}^2,S_{XY}と書くことで、


\begin{aligned}
b&=\displaystyle{\frac{S_{XY}}{{S_X}^2}},\\
a&=\bar{Y}-b\bar{X}
\end{aligned}

である。これら最小二乗法で得たa,b\alpha,\betaの最小二乗推定量という。

2.3.1 回帰直線の性質

 標本回帰関数による予測値


\begin{aligned}
\hat{Y}=a+bX
\end{aligned}

を回帰直線と呼ぶ。\hat{Y}=a+bX=(\bar{Y}-b\bar{X})+bX\Leftrightarrow \hat{Y}-\bar{Y}=b(X-\bar{X})であり、{S_{X}}^2\gt0であるから、

  • 回帰直線は\bar{X},\bar{Y}を通る
  • 傾きbの符号は標本共分散S_{XY}の符号に一致する

という性質を持つ。

2.3.2 残差の性質

 残差


\begin{aligned}
e_i=Y_i-\left(a+bX_i\right)=Y_i-\hat{Y}_i
\end{aligned}

は、まず


\begin{aligned}
\displaystyle{\sum_{i=1}^{n}e_i}=\displaystyle{\sum_{i=1}^{n}\left(Y_i-\hat{Y}_i\right)}=\displaystyle{\sum_{i=1}^{n}Y_i}-\displaystyle{\sum_{i=1}^{n}Y_i}=0
\end{aligned}

である。
 また、偏微分連立方程式の2つ目の方程式から、


\begin{aligned}
                        &\displaystyle{\sum_{i=1}^{n}X_i \left\{Y_i-\left(a+b X_i\right)\right\}}=0,\\
\Leftrightarrow&\displaystyle{\sum_{i=1}^{n}X_i e_i}=0
\end{aligned}

である。以上をまとめると、

  • 残差の総和は0である
  • 残差とXの積和は0である

という2つの性質が導かれる。

2.4 当てはまりの尺度、決定係数・重相関係数

 回帰により説明変数Xが従属変数Yをどの程度説明するかを測る指標を考える。
 もしYが完全に説明される場合、すべての残差e_i0である。逆にまったく説明できない場合、当てはめ値が常にYの標本平均になる。

2.4.1 Yの総変動

 従属変数Yの平均からの乖離の二乗和をYの総変動TSSという。


\begin{aligned}
TSS&=\displaystyle{\sum_{i=1}^{n}\left(Y_i-\bar{Y}\right)^2},\\
      &=\displaystyle{\sum_{i=1}^{n}\left(Y_i-\hat{Y}+\hat{Y}-\bar{Y}\right)^2},\\
      &=\displaystyle{\sum_{i=1}^{n}\left\{e_i+\left(\hat{Y}-\bar{Y}\right)\right\}^2},\\
      &=\displaystyle{\sum_{i=1}^{n}{e_i}^2}+2\displaystyle{\sum_{i=1}^{n}e_i\left(\hat{Y}-\bar{Y}\right)}+\displaystyle{\sum_{i=1}^{n}\left(\hat{Y}-\bar{Y}\right)^2},\\
      &=\displaystyle{\sum_{i=1}^{n}{e_i}^2}+\displaystyle{\sum_{i=1}^{n}\left(\hat{Y}-\bar{Y}\right)^2}
\end{aligned}

である。ここで、


\begin{aligned}
\displaystyle{\sum_{i=1}^{n}e_i\left(\hat{Y}-\bar{Y}\right)}=\displaystyle{\sum_{i=1}^{n}e_i\hat{Y}}-\bar{Y}\displaystyle{\sum_{i=1}^{n}e_i}=0
\end{aligned}

を用いた。すなわち、総変動TSSは残差二乗和と説明変数Xによって説明された変動ESSの和に分解される。

2.4.2 ESSの計算

 ESSは簡単に計算できる。


\begin{aligned}
\left(Y_i-\bar{Y}\right)^2&=\left\{\left(a+b X_i\right)-\left(a+b\bar{X}\right)\right\}^2\\
                                       &=b^2\left(X_i-\bar{X}\right)^2
\end{aligned}

から、


\begin{aligned}
ESS=b^2\displaystyle{\sum_{i=1}^{n}\left(X_i-\bar{X}\right)^2}
\end{aligned}

が得られる。またRSSTSSからESSを引けばよい。

2.4.3 決定係数

 以上を踏まえて、回帰の当てはまり度合いを表す指標として、決定係数R^2を導入する。決定係数R^2は、


\begin{aligned}
R^2&=\displaystyle{\frac{ESS}{TSS}},\\
       &=1-\displaystyle{\frac{RSS}{TSS}}
\end{aligned}

で定義する。ESS,TSSはいずれも非負であるから、R^20から1の間の値を取る。

プライバシーポリシー お問い合わせ