「大人の教養・知識・気付き」を伸ばすブログ

一流の大人(ビジネスマン、政治家、リーダー…)として知っておきたい、教養・社会動向を意外なところから取り上げ学ぶことで“気付く力”を伸ばすブログです。

MENU

計量経済学の基礎(目次)

 計量経済学を学んでいく。
 まずは

を中心に参照して基礎を学んでいく。

1. 第1回:計量経済学とは何か

power-of-awareness.com

  • 計量経済学とは経済を計測するのみならず計測を通じて経済変数間の関係を支配しているメカニズムを経済理論とデータに基づいて解明していく方法である。
  • 計量経済学では経済変数間の関係を支配するメカニズムをY=f(X)と表し、f(\cdot)を経済モデル、Yを従属変数(被説明変数) 、Xを独立変数(説明変数)という。
  • 経済理論と実際のデータとの関係を具体的に定めたもの(f(\cdot)に具体的な形を与えたもの)を計量経済モデルという。

2. 第2回:回帰モデルの当てはめ

power-of-awareness.com

  • 線形モデル
    \begin{aligned}Y_i=\alpha+\beta X_i+\varepsilon_i\end{aligned}
    を考えるとき、\varepsilon_iを攪乱項または誤差項と呼ぶ。
  • 最小二乗法によれば、パラメータは
    \begin{aligned}\hat{\beta}=&\displaystyle{\frac{\displaystyle{\sum_{i=1}^{n}(X_i-\bar{X})(Y_i-\bar{Y})}}{\displaystyle{\sum_{i=1}^{n}(X_i-\bar{X})^2}}}\\\hat{\alpha}=&\bar{Y}-\hat{\beta}\bar{X}\end{aligned}
    で推定できる。
  • 線形モデルの当てはまりを表す尺度として決定係数R^2
    \begin{aligned}R^2=\displaystyle{\frac{{\hat{\beta}}^2\displaystyle{\sum_{i=1}^{n}\left(X_i-\bar{X}\right)^2}}{\displaystyle{\sum_{i=1}^{n}(Y_i-\bar{Y})^2}}}\end{aligned}
    で定義する。

3. 第3回:古典的2変数回帰モデル

power-of-awareness.com

  • 単回帰モデル
    \begin{aligned}Y_i=\alpha+\beta X_i+\varepsilon_i,\ i=1,\cdots,n\end{aligned}
    において(1)X_iは非確率的、(2)E[\varepsilon_i]=0、(3){}^{\forall}i=1,\cdots,n,V[\varepsilon_i]=\sigma^2,\ \sigma\gt0、(4)Cov[\varepsilon_i,\varepsilon_j]=0,i\neq j、(5)\varepsilon_i\sim N(0,\sigma^2)、を満たすものを古典的正規回帰モデルという。
  • 古典的(正規)回帰モデルにおいて
    \begin{aligned}\displaystyle{\frac{\displaystyle{\sum_{i=1}^{n}(X_i-\overline{X})(Y_i-\overline{Y})}}{\displaystyle{\sum_{i=1}^{n}}(X_i-\overline{X})^2}},\\\overline{Y}-\hat{\beta}\overline{X},\\\displaystyle{\frac{1}{n-2}\sum_{i=1}^{n}{e_i}^2}\end{aligned}
    は不偏性を持ち、また分散も簡単に計算できる。

4. 第4回:Gauss Markovの定理

power-of-awareness.com

  • Gauss-Markovの定理(古典的回帰モデル
    \begin{aligned}Y_i=\alpha+\beta X_i+\varepsilon_i,\ i=1,2,\cdots,n\end{aligned}
    において最小二乗推定量
    \begin{aligned}\hat{\alpha}&=\overline{Y}-\hat{\beta}\overline{X},\\\hat{\beta}&=\displaystyle{\frac{\displaystyle{\sum_{i=1}^{n}(X_i-\overline{X})(Y_i-\overline{Y})}}{\displaystyle{\sum_{i=1}^{n}}(X_i-\overline{X})^2}}\end{aligned}
    は最良線形不偏推定量(Best Linear Unbiased Estimator)である。)が成り立つ。

5. 第5回:回帰モデルにおける予測

power-of-awareness.com

  • 予測誤差は予測値自身の誤差(分散)とは相違する。
  • 回帰モデルは線形だけとは限らず、対数を取るなどで非線形性を表現することもできる。

6. 第6回:重回帰モデル

power-of-awareness.com

  • 一般に複数の説明変数が存在する
    \begin{aligned}Y=\beta_0+\beta_1 X_1+\beta_2 X_2+\cdots+\beta_K X_K+\varepsilon\end{aligned}
    K変数回帰モデルという。
  • 行列を用いることで
    \begin{aligned}\boldsymbol{Y}={}^{t}[\boldsymbol{1}|\boldsymbol{x}]\boldsymbol{\beta}+\boldsymbol{\varepsilon}=\boldsymbol{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon},\ \boldsymbol{X}=[\boldsymbol{1}|\boldsymbol{x}]\end{aligned}
    と表現できる。

7. 第7回:重回帰での推定・予測・当てはめ

power-of-awareness.com

  • 残差回帰とは\boldsymbol{\beta}_2を以下の3ステップを通じて推定する方法である。

    (1)\boldsymbol{Y}\boldsymbol{X}_1に単回帰して残差\tilde{\boldsymbol{Y}}を求める。

    (2)\boldsymbol{X}_2\boldsymbol{X}_1に回帰して残差の行列\tilde{\boldsymbol{X}}_2を求める。

    (3)残差\tilde{\boldsymbol{Y}}を残差の行列\tilde{\boldsymbol{X}}_2に回帰させる。
  • Yの総変動は以下のとおりで与えられる:

    \begin{aligned}TSS={}^{t}(\hat{\boldsymbol{Y}}-\boldsymbol{1}\bar{Y})(\hat{\boldsymbol{Y}}-\boldsymbol{1}\bar{Y})+{}^{t}\boldsymbol{e}\boldsymbol{e}\end{aligned}
  • 決定係数R^2は以下で定義できる:
    \begin{aligned}R^2=1-\displaystyle{\frac{RSS}{TSS}}=\displaystyle{\frac{ESS}{TSS}}\end{aligned}
  • ただし決定係数は採用する説明変数の個数を増やせば必然的に改善するため、説明変数の数による上昇を控除した自由度修正済み決定係数\bar{R}^2を以下で定義する:
    \begin{aligned}\bar{R}^2=1-\displaystyle{\frac{RSS}{TSS}\frac{n-1}{n-k}}=1-(1-R^2)\displaystyle{\frac{n-1}{n-k}}\end{aligned}
  • (自由度修正済み)決定係数は当てはまりの良さを表しているもので、良い予測をするモデルの診断に用いることが出来るわけではない点に留意が必要である。

8. 第8回:古典的回帰モデル(重回帰)

power-of-awareness.com

  • 重回帰モデル
    \begin{aligned}\boldsymbol{Y}=\boldsymbol{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon}\end{aligned}
    に以下の5つを仮定する:

    ①仮定(1):\boldsymbol{X}は非確率的である、

    ②仮定(2):E[\boldsymbol{Y}]=\boldsymbol{X}\boldsymbol{\beta},\ E[\boldsymbol{\varepsilon}]=\boldsymbol{0}が成り立つ、

    ③仮定(3):V[\boldsymbol{\varepsilon}]=\sigma^2Iで、各要素は他から独立である、

    ④仮定(4):\boldsymbol{X}の階数はkである、

    ⑤仮定(5):\boldsymbol{Y}\sim N(\boldsymbol{X}\boldsymbol{\beta},\sigma^2 I)

    このうち、仮定(1)-(4)を満たす重回帰モデルを古典的回帰モデルといい、仮定(1)-(5)を満たす重回帰モデルを古典的正規回帰モデルという。
  • \mathbb{E}\left[\hat{\boldsymbol{\beta}}\right]\boldsymbol{\beta},\ \mathbb{V}[\hat{\boldsymbol{\beta}}]=\sigma^2{{}^{t}\boldsymbol{X}\boldsymbol{X}}^{-1}
  • \mathbb{E}[\boldsymbol{e}]=\boldsymbol{0},\mathbb{V}[\boldsymbol{e}]=\sigma^2M
  • \hat{\mathbb{V}[\hat{\boldsymbol{\beta}}]}=S^2({}^{t}\boldsymbol{X}\boldsymbol{X})^{-1},\ S^2=\displaystyle{\frac{{}^{t}\boldsymbol{e}\boldsymbol{e}}{n-k}}

9. 第9回:古典的重回帰モデルにおける推定と検定

power-of-awareness.com

  • 古典的K変数回帰モデルにおける推定および検定を扱う。

10. 第10回:コントロールと推定

power-of-awareness.com

  • ある理論(に関係する注目している説明要因)を検証するのに、他の説明要因を説明変数に加えて推定する方法を、他の要因をコントロールして推定するという。
  • 質的な差を表すのに条件を満たすならば1、そうでなければ0となるようなダミー変数を用いることがある。
  • 複数の係数を検定するには、制約付きの回帰を制約なしの回帰に式変形してから推定し、検定を行うアプローチである。推定後、F検定で仮説検定すればよい。
  • 複数の係数に関する仮説検定としてよく対象となるのは、ある期を境として経済構造が変化したか否かの検定である。これはF検定の1つであるが、Chowテストと呼ばれている。

11. 第11回:モデルの定式化

power-of-awareness.com

  • モデルの関数系や説明変数を指定することをモデルの定式化という。
  • 定式化において採用すべき説明変数を加えない場合(過少定式化)、係数は不偏性を失う。また推定結果に基づいた統計的推論は誤りを持つ。過剰に説明変数を盛り込んだ場合、過剰定式化係数は不偏なものの、誤差は増大し推定値の精度は減少する。
  • K変数回帰モデルで複数の説明変数が「似た動き」をする場合、個別の母数の推定が困難になる現象を多重共線性という。
  • 多重共線性がある場合、推定量の標準誤差が大きくなり、推定値が理論から予想される値から大きく乖離する(場合によっては符号が反転する。更にt値が小さくなり、データの僅かな変動や観測期間の変更で係数値が大きく変化し得る。

12. 第12回:一般化古典的回帰モデル(1)

power-of-awareness.com

  • 仮定

    (1)\boldsymbol{X}は非確率的である、

    (2)\mathbb{E}[\boldsymbol{Y}]=\boldsymbol{X\beta}であり\mathbb{E}[\boldsymbol{\varepsilon}]=\boldsymbol{0}

    (3)\boldsymbol{X}の階数はkである、を置いた回帰モデルを一般化古典的回帰モデルと呼ぶ。

13. 第13回:一般化古典的回帰モデル(2)

power-of-awareness.com

  • 古典的回帰モデルにおいて攪乱項の分散に関する仮定\boldsymbol{\varepsilon}の分散は一定で各要素が他から独立している、を除いた3つの仮定(1)\boldsymbol{X}は非確率的である、(2)\mathbb{E}[\boldsymbol{Y}]=\boldsymbol{X\beta}であり\mathbb{E}[\boldsymbol{\varepsilon}]=\boldsymbol{0}、(3)\boldsymbol{X}の階数はkである、を置いた回帰モデルを一般化古典的回帰モデルと呼ぶ。
  • \begin{aligned}\tilde{L}(\boldsymbol{\omega})=\displaystyle{\sum_{i=1}^{n}\frac{\{Y_i-(\hat{\alpha}+\boldsymbol{X}_i\hat{\boldsymbol{\beta}})\}^2}{{\omega_i}^2}}\end{aligned}
    を最小化して得られる加重最小二乗推定量は、一般化古典的回帰モデルにおいて純粋な不均一分散があるとき最小分散不偏推定量である。

14. 第14回:一般化古典的回帰モデル(不均一分散)

power-of-awareness.com

  • 不均一分散性が疑われる場合、その疑いに関する情報の程度に応じて検出方法がある。

15. 第15回:一般化古典的回帰モデル(相関あり)

power-of-awareness.com

  • 攪乱項の間に相関が存在する場合、とくに時系列データを用いて構築されたモデルにおいて攪乱項の間に相関がある、すなわち
    \begin{aligned}\mathrm{Cov}[\varepsilon_i,\varepsilon_j]\neq0,\ i\neq j\end{aligned}
    が成り立つときを系列相関があるという。

16. 第16回:一般化古典的回帰モデル(系列相関あり)

power-of-awareness.com

  • 系列相関がある場合、最良線形不偏推定量(BLUE)は不均一分散がある場合と同様に元のモデルを変形して古典的回帰モデルをつくり、その変形したモデルに最小二乗法を適用する。

17. 第17回:一般化古典的回帰モデルでの推定

power-of-awareness.com

  • 一般化モーメント法などさまざまな推定法を扱う。

18. 第18回:最尤法

power-of-awareness.com

  • 最尤法は観測されたデータの組み合わせが生じる確率を最大にするような母数を母数の推定値と見なす方法である

19. 第19回:質的従属変数の取り扱い方

power-of-awareness.com

  • 質的変数を2値を取るダミー変数と見なすことができる。
  • ダミー変数を取る確率をモデル化することで様々な分析が可能となる。
  • 代表的なのがロジット・モデル、プロビット・モデルである。

20. 第20回:切断された従属変数

https://power-of-awareness.com/entry/2022/03/21/050000power-of-awareness.com

  • 従属変数が質的変数と量的変数の両方からなる場合、分布の形状が変わり、条件付き期待値は無条件の期待値よりも大きくなる。従属変数の取る値がある一定の領域に限られているとき、その従属変数は切断されているという。
  • 切断された従属変数を扱うためのモデルには、潜在変数をY^{*}とし、観測値YY^{*}に以下の関係がある
    \begin{aligned}Y_i^{*}&=\alpha+{}^{t}\boldsymbol{X}_i\boldsymbol{\beta}+\varepsilon_i,i=1,2,\cdots,n\\\varepsilon_i&\sim N(0,\sigma^2),\\\\Y_i&=\begin{cases}Y_i^{*},&Y_i^{*}\gt0\\0,&Y_i^{*}\leq0\end{cases}\end{aligned}
    モデルがあり、これをTobitモデルと呼ぶ。
  • Tobitモデルの推定には最尤法を用いる。

21. 第21回:パネルデータの取り扱い方

https://power-of-awareness.com/entry/2022/03/28/050000power-of-awareness.com

  • 時系列方向に複数あり、さらに各1時点に複数のデータが存在する(クロスセクション)ようなデータセットパネルデータという。
  • パネルデータでは系列相関とクロスセクション方向での相関の2つを考える必要があり、それに応じて利用する回帰モデルを変える必要がある。
  • 個人効果が(クロスセクションでの相関)が無ければ古典的回帰モデルに帰着する。そうでなければ個人効果が説明変数と相関があれば固定効果モデル、無ければランダム効果モデルを用いればよい。

22. 第22回:特定化のテスト

https://power-of-awareness.com/entry/2022/04/04/050000power-of-awareness.com

  • 説明変数と攪乱項の相関を検定する手法を特定化のテストという。帰無仮説が棄却されない場合には不偏であるもののそうでない場合にはバイアスが発生する推定量\boldsymbol{T}_0と特定化の帰無仮説の真偽に拘わらず不偏な推定量\boldsymbol{T}が存在する仮定するとき、もし帰無仮説が棄却されるならば、2つの推定量は異なる値へ確率収束するはずである。したがって両者に有意な差が無いならば帰無仮説は棄却できないと考えられる。これを検定に活用する。
  • Hausman検定や(非)入れ子型仮説、J検定を用いる。
プライバシーポリシー お問い合わせ