「大人の教養・知識・気付き」を伸ばすブログ

一流の大人(ビジネスマン、政治家、リーダー…)として知っておきたい、教養・社会動向を意外なところから取り上げ学ぶことで“気付く力”を伸ばすブログです。目下、データ分析・語学に力点を置いています。今月(2022年10月)からは多忙につき、日々の投稿数を減らします。

MENU

本気で学ぶ統計学(14/31)

 統計学を真剣に学ぶ人のために、個人的にまとめているノートを公開する。
 底本として

を用いる。

5. 統計量・標本分布とサンプリング

 以降の議論ではいよいよ推定統計学を扱っていく。その前段として、統計量の概念を導入する。

 統計学の基本的な概念として母集団と標本の区別を行う必要がある。たいていの場合、母集団を構成する全個体の注目している値(特性値という)を調査するのは不可能であるため、統計学として興味があるのは母集団のごく一部から特性値を合理的に推計することである*1。こうした状況において実験や観察などで得られた母集団に所属する一部(から観測された特性値)を標本という。
 標本の採取方法にはある一つの対象の観測地が得られたときにその対象を観察対象から外す場合と再び観測対象に含める場合がある。前者を復元抽出といい後者を非復元抽出という。

 統計推測においては母集団分布Fとしてある特定の分布(たとえば正規分布)を仮定する場合がある。特定の分布を仮定すれば、問題をその母数を推計することに置き換えることが可能になる。それも踏まえ、このようにある特定の分布を仮定するという状況は、分布の形状、すなわち分布関数(確率密度関数)の関数形を仮定しつつ、母数の全部または一部を未知とすることに等しい。これをより数学的に定義するために分布族という概念を与える。

 その母数ベクトルが\boldsymbol{\theta}=(\theta_1,\cdots,\theta_n),n\in\mathbb{N}であるようなある確率分布(分布関数および確率密度関数をそれぞれF(\boldsymbol{x},\boldsymbol{\theta}), f(F(\boldsymbol{x},\boldsymbol{\theta})とする。)に対し、母数ベクトルを動かして得られる任意の確率分布を集めた、すなわち母数ベクトルの取り得る範囲をあらわす集合\Thetaを添字集合とするような集合



\begin{aligned}
\{f(\boldsymbol{x},\boldsymbol{\theta}|\boldsymbol{\theta}\in\mathbb{R}^{n})\}&\ \ または\\
\{F(\boldsymbol{x},\boldsymbol{\theta}|\boldsymbol{\theta}\in\mathbb{R}^{n})\}&
\end{aligned}


を分布族という。
 このように特定の分布族を仮定することを(統計的)モデリング、その仮定した特定の分布族自体を統計的モデルという。

 統計的モデルは3つの類型に分類することが出来る。分布族を添字づける集合\Thetaを母数空間といい、問題設定において確率分布に明示的な形状を仮定し、併せて母数空間を有限次元の空間と見なし、興味のある母数の推定やそれにより確定させた分布を用いて検定や予測を行う場合、



\begin{aligned}
\{f(\boldsymbol{x}:\boldsymbol{\theta}|\boldsymbol{\theta}\in\mathbb{R}^{n})\}
\end{aligned}


パラメトリック・モデルという。
 これに対して、特定の関数形を一切仮定せずに統計的な解析を行う場合をノンパラメトリック・モデルという。この場合には、標本の値そのものよりもその順位(大小関係)を利用する。
 また問題設定において興味のあるもの\boldsymbol{\theta_1}とそれ以外のもの\boldsymbol{\eta}(これを攪乱母数という。)に母数ベクトルを分割し、\boldsymbol{\theta}_1は特定の母数空間\Thetaに、攪乱母数\etaは無限次元空間Hに属するとした場合に、



\begin{aligned}
\{f(\boldsymbol{x}:\boldsymbol{\theta}_1,\boldsymbol{\eta})|\boldsymbol{\theta}\in\mathbb{R}^{k},\boldsymbol{\eta}\in H\}
\end{aligned}


セミパラメトリック・モデルという。

例1:パラメトリック・モデル
 たとえばある確率変数Xに対して正規分布に従う、すなわち母数空間\Theta=\{(\mu,\sigma^2)|\mu\in\mathbb{R},\sigma\in(0,\infty)\}と取り、


\begin{aligned}
\{\displaystyle{\frac{1}{\sqrt{2\pi\sigma^2}}\exp\left\{-\displaystyle{\frac{(x-\mu)^2}{2\sigma^2}}\right\}}|(\mu,\sigma^2)\in\Theta\}
\end{aligned}

という分布族を取った場合、問題は\mu,\sigma^2(の両方またはいずれか)を推定することに帰着する。この場合はパラメトリック・モデルである。

例2:Coxハザード比例モデル
 生存時間解析において頻用されるCoxハザード比例モデルは典型的なセミパラメトリックモデルである。適当に定めた起点から分析対象となっている事象が発生するまでの時間を表す確率変数をTとする。その分布関数および確率密度関数をそれぞれF(t),f(t)とおく。またその事象に関係する(と想定する)共変量を表す確率ベクトルを\boldsymbol{X}={}^{t}(X_1,\cdots,X_n)とする。
 このとき、生存関数S(t)



\begin{aligned}
S(t)=P\{T\gt t\}=1-F(t)=\displaystyle{\int_{t}^{\infty}f(t)dt}
\end{aligned}


とおく。これは起点からtだけ経過したときに分析事象が発生していない確率を表す。
 生存関数S(t)に対して



\begin{aligned}
h(t)=\displaystyle{\lim_{\Delta t\rightarrow 0}\frac{P\{t\leq T\lt t+\Delta t|T\gt t\}}{\Delta t}}=\displaystyle{\frac{f(t)}{S(t)}}=\displaystyle{\frac{d}{dt}\log[S(t)]}
\end{aligned}


で定義されるh(t)をハザード関数という。これはt時点までに事象が発生しなかったという条件の下で、t時点の直後に事象が発生するしやすさを表す強度を意味する。
 このハザード関数を以下のようにモデル化したものをCox比例ハザードモデルという。



\begin{aligned}
h(t)=h_0(t)\exp\left(\beta_0+\beta_{1}x_i+\cdots+\beta_{k}x_k\right)
\end{aligned}


Cox比例ハザードモデルは、確率ベクトル\boldsymbol{X}に対しては明示的な関係性(関数形)を仮定している、すなわち母数\boldsymbol{\beta}={}^{t}(\beta_1,\cdots,\beta_n)についてはパラメトリックな形態を仮定している。これに対して確率変数Tに対しては特定の関数形(すなわち母数)を仮定していない点でノンパラメトリックになっている。このためCox比例ハザードモデルはセミパラメトリック・モデルと言える。

 パラメトリック・モデル、セミパラメトリック・モデルおよびノンパラメトリック・モデルのうち何れを用いるかは、どのような解析をすることが目的か、データに関してどのような制約があるかなどによって決めるべきことではあるが、各々の性質をまとめると以下のようになる:

メリット
デメリット
(1)
・解析対象を母数に限定化するために分析を簡約化できる。

・分析手法が確立している手法が多い。
・仮定した分布族が誤っていれば、誤判断を招き得る。

・本来は反映すべき変数を取りこぼす可能性がある。
(2)
・盛り込みたい変数を柔軟に反映できる。<
・推定などの解析手法が複雑である。

・モデルが複雑化する。
(3)
ノンパラメトリック・モデル
・特定の分布を仮定しないので、汎用的に利用できる。

・標本の順位情報を用いるので、パラメトリック・モデルに比べ推計誤差が大きくなりがちである。

5.1 統計量と標本分布の導入

 母集団から得られた標本X_1,\cdots X_nは普通それらを加工することで標本平均や標本誤差を得るなど、何らかの統計処理を施すことが多い。その処理を施して得た値を通じて意思決定を行うのである。標本\boldsymbol{X}=(X_1,\cdots,X_n)*2の実数値関数T(X)=T(X_1,\cdots,X_n)を標本(X_1,\cdots ,X_n)に基づく統計量という。
 標本(X_1,\cdots,X_n)のいずれも確率変数であるから、統計量も確率変数である*3
 統計量の分布を標本分布という。X_iが連続確率変数で互いに独立かつ同一分布から得られたとすればT(X_1,\cdots ,X_n)\leq tとなるような(X_1,\cdots,X_n)=(x_1,\cdots ,x_n)の集合をA\subset\mathbb{R}^nとすればT\leq tとなる確率は



\begin{aligned}
F_T(t)=P\{T\leq t\}=\displaystyle{\int_{A}f(x_1)\cdot\cdots\cdot f(x_n)}dx_1\cdots dx_n
\end{aligned}


で与えられる。

5.1.1 具体的な統計量(1) 標本平均

 標本X_i\sim P_{\theta},i=1,\cdots,nに対して標本平均を



\begin{aligned}
\bar{X}=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}X_i}
\end{aligned}


で定義する。
 標本平均は不偏性を持つ*4。実際、分布P_{\theta}の期待値(平均)を\mu,|\mu|\lt\inftyとすると



\begin{aligned}
E[\bar{X}]&=\displaystyle{\int_{-\infty}^{\infty}\bar{x}f_{\bar{X}}(x)}dx\\
&=\displaystyle{\int_{-\infty}^{\infty}\bar{x}f_{\bar{X}}(x)}dx\\
&=\displaystyle{\displaystyle{\frac{1}{n}}\sum_{i=1}^{n}\int_{-\infty}^{\infty}x_i f_{X_i}(x_i)}dx_i\\
&=\displaystyle{\displaystyle{\frac{1}{n}}\cdot n\mu}\\
&=\mu
\end{aligned}


である。また



\begin{aligned}
V[\bar{X} ]=\displaystyle{\displaystyle{\frac{1}{n}}\sigma^2}
\end{aligned}


が成り立つ。実際、



\begin{aligned}
V[\bar{X}]&=V\left[\displaystyle{\frac{1}{n}\sum_{i=1}^{n}X_i}\right]\\
&=\displaystyle{\left(\displaystyle{\frac{1}{n}}\right)^2\sum_{i=1}^{n}V[X_i]}\\
&=\displaystyle{\frac{\sigma^2}{n}}
\end{aligned}


である。

  

5.1.2 具体的な統計量(2) 標本分散

 標本X_i\sim P_{\theta},i=1,\cdots ,nに対して標本分散を



\begin{aligned}
S^2=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}(X_i-\bar{X})^2}
\end{aligned}


で定義する。
 標本分散は標本平均



\begin{aligned}
\bar{X}=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}X_i}
\end{aligned}


を用いているため、あるk,k=1,\cdots,nに対して



\begin{aligned}
X_k=n\bar{X}-\left(X_1+\cdots+X_{k-1}+X_{k+1}+\cdots+X_n\right)
\end{aligned}


が成り立ち自由度が1減ってしまう。そのため標本分散は不偏性を持たない。
 そこで不偏性を持つような標本分散として「標本不偏分散」を以下で定義する:



\begin{aligned}
U^2=\displaystyle{\frac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2}
\end{aligned}


を定義する。
 これらについて不偏性を確認しよう。



\begin{aligned}
E[S^2]=&E\left[\displaystyle{\frac{1}{n}\sum_{i=1}^{n}(X_i-\bar{X})^2}\right]=\displaystyle{\frac{1}{n}E\left[\displaystyle{\sum_{i=1}^{n}\left\{(X_i-E[\bar{X}])-(\bar{X}-E[\bar{X}])\right\}^2}\right]}\\
=&\displaystyle{\frac{1}{n}E\left[\sum_{i=1}^{n}(X_i-E[\bar{X}])^2\right]}-\displaystyle{\frac{2}{n}(\bar{X}-E[\bar{X}])E\left[\sum_{i=1}^{n}(X_i-E[\bar{X}])\right]}\\
&+\displaystyle{\frac{1}{n} E\left[\sum_{i=1}^{n}(\bar{X}-E[\bar{X}])^2\right]}\\
=&\displaystyle{\frac{1}{n}E\left[\sum_{i=1}^{n}(X_i-E[\bar{X}])^2\right]}-\displaystyle{\frac{2}{n}E\left[(\bar{X}-\mu)\sum_{i=1}^{n}(X_i-E[\bar{X}])\right]}+\displaystyle{\frac{1}{n}\sigma^2}
\end{aligned}


 ここで



\begin{aligned}
\displaystyle{\frac{2}{n}E\left[(\bar{X}-\mu)\sum_{i=1}^{n}(X_i-E[\bar{X}])\right]}=\displaystyle{\frac{\sigma^2}{n}}
\end{aligned}


であるから



\begin{aligned}
E[S^2]=\frac{1}{n} E\left[\sum_{i=1}^{n}(X_i-E[\bar{X}])^2\right]-\displaystyle{\frac{1}{n}\sigma^2}
\end{aligned}


を得る。ここに



\begin{aligned}
\displaystyle{\frac{1}{n} E\left[\sum_{i=1}^{n}(X_i-E[\bar{X}])^2\right]}=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}E[(X_i-\mu)^2]}=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}E[(X_i-E[X_i])^2] }=σ^2
\end{aligned}


を代入すれば



\begin{aligned}
E[S^2]=\frac{n-1}{n}\sigma^2
\end{aligned}

が成り立つ。なお



\begin{aligned}
U^2=\frac{n}{n-1} S^2
\end{aligned}


に注意すれば



\begin{aligned}
E[U^2]=E\left[\frac{n}{n-1} S^2\right]=\frac{n}{n-1} E[S^2]=\frac{n}{n-1}\frac{n-1}{n}\sigma^2=σ^2
\end{aligned}


である。
 次に分散を考える。
 もしX_i\sim N(\mu,\sigma^2),i=1,2,\cdots,n,i.i.d.ならば



\begin{aligned}
\displaystyle{\frac{(n-1)S^2}{\sigma^2}}\sim \chi^2(n-1)
\end{aligned}


に注意すれば、



\begin{aligned}
V\left[\displaystyle{\frac{(n-1)S^2}{\sigma^2}}\right]=2(n-1)
\end{aligned}


より、



\begin{aligned}
V\left[U^2\right]=2(n-1)\left(\displaystyle{\frac{\sigma^2}{n-1}}\right)^2=\displaystyle{\frac{2\sigma^4}{n-1}}
\end{aligned}


である。
 正規分布とは限らず、一般の分布(ただし4次モーメント\mu_4が存在すると仮定する。)の場合を考える。
 簡単のため、Y_i=X_i-\muとおく。このときE[Y_i]=0,V[Y_i]=\sigma^2であり、



\begin{aligned}
U^2=\displaystyle{\frac{1}{n-1}\sum_{i=1}^{n}(Y_i-\bar{Y})^2}
\end{aligned}


である。
 また仮定からE[Y_i^4]=\mu_4であることを踏まえれば、



\begin{aligned}
E[U^4]&=\displaystyle{\frac{1}{(n-1)^2}E\left[\left(\displaystyle{\sum_{i=1}^{n}(Y_i-\bar{Y})}\right)^2\right]}\\
&=\displaystyle{\frac{1}{(n-1)^2}E\left[\left(\displaystyle{\sum_{i=1}^{n}Y_i^2}-2\displaystyle{\sum_{i=1}^{n}\bar{Y}Y_i}+n\bar{Y}^2\right)^2\right]}\\
&=\displaystyle{\frac{1}{(n-1)^2}E\left[\left(\displaystyle{\sum_{i=1}^{n}Y_i^2-n\bar{Y}^2}\right)^2\right]}\\
&=\displaystyle{\frac{1}{(n-1)^2}\left\{E\left[\left(\displaystyle{\sum_{i=1}^{n}Y_i^2}\right)\right]-2n E\left[\displaystyle{\sum_{i=1}^{n}Y_i^2\bar{Y}^2}\right]+n^2 E\left[\displaystyle{\sum_{i=1}^{n}\bar{Y}^4}\right]\right\}}
\end{aligned}


である。
 最右辺の\{\}内の各期待値を左からそれぞれ(1),(2),(3)とおくと、



\begin{aligned}
(1)&=E\left[\left(\displaystyle{\sum_{i=1}^{n}Y_i^2}\right)\right]\\
&=E\left[\sum_{i=1}^{n}Y_i^4\right]+E\left[\sum\sum_{i\neq j}Y_i^2Y_j^2\right]\\
&=n\mu_4+n(n-1)\sigma^4
\end{aligned}



\begin{aligned}
(2)&=E\left[\displaystyle{\sum_{i=1}^{n}Y_i^2\bar{Y}^2}\right]\\
&=\displaystyle{\frac{1}{n^2}\sum_{i=1}^{n}E\left[Y_i^2\left(\displaystyle{\sum_{j=1}^{n}Y_j}\right)^2\right]}
\end{aligned}


である。これをjについて展開すれば一次モーメントは0であるから、(1)に帰着し、



\begin{aligned}
(2)=\displaystyle{\frac{1}{n}(\mu_4+(n-1)\sigma^4)}
\end{aligned}


である。



\begin{aligned}
(3)=E\left[\displaystyle{\sum_{i=1}^{n}\bar{Y}^4}\right]\\
&=\displaystyle{\frac{1}{n^4}\sum_{i,j,k,l=1}^{n}E[Y_i Y_j Y_k Y_l]}
\end{aligned}


である。1次モーメントは0であるから、Y_i^4の項およびY_i^2Y_j^2(i\neq j)の項のみが残り、前者はn個、後者は3n(n-1)個あるから、



\begin{aligned}
(3)=\displaystyle{\frac{1}{n^3}\{n\mu_4+3n(n-1)\sigma^4\}}=\displaystyle{\frac{1}{n^3}\{\mu_4+3(n-1)\sigma^4\}}
\end{aligned}


が成り立つ。
 以上から、



\begin{aligned}
E[U^4]=&\displaystyle{\frac{1}{(n-1)^2}\left\{E\left[\left(\displaystyle{\sum_{i=1}^{n}Y_i^2}\right)\right]-2n E\left[\displaystyle{\sum_{i=1}^{n}Y_i^2\bar{Y}^2}\right]+n^2 E\left[\displaystyle{\sum_{i=1}^{n}\bar{Y}^4}\right]\right\}}\\
=&\displaystyle{\frac{1}{(n-1)^2}\left[\left\{n\mu_4+n(n-1)\sigma^4\right\}-\left\{2(\mu_4+(n-1)\sigma^4)\right\}\right.}\\
&+\displaystyle{\left.\left\{\displaystyle{\frac{1}{n}\{\mu_4+3(n-1)\sigma^4\}}\right\}\right]}\\
=&\displaystyle{\frac{\mu_4}{n}}+\displaystyle{\frac{1}{n(n-1)}(n^2-2n+3)\sigma^4}
\end{aligned}


が成り立つ。
 したがって、



\begin{aligned}
V[U^4]&=E[U^4]-\left\{E[U^2]\right\}^2\\
&=\displaystyle{\frac{\mu_4}{n}}+\displaystyle{\frac{1}{n(n-1)}}(n^2-2n+4)\sigma^4-\sigma^4\\
&=\displaystyle{\frac{1}{n}}\left(\mu_4-\displaystyle{\frac{n-3}{n-1}\sigma^4}\right)
\end{aligned}


である。

5.1.3 具体的な統計量(3) r次モーメント

 平均周りのr次モーメント\mu_rに対してr次標本モーメントを



\begin{aligned}
m_r=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}(X_i-\bar{X})^r} ,r\geq2
\end{aligned}


で定義する。
 標本X_i\sim P_{\theta},i=1,\cdots,nに対して標本歪度および尖度を



\begin{aligned}
\sqrt{b_1}&=\displaystyle{\frac{m_3}{m_2^{\frac{3}{2}}}},\\
b_2&=\displaystyle{\frac{m_4}{m_2^2}}
\end{aligned}


で定義する。
 標本歪度および標本尖度も大数の法則から類推されるように一致性を持つ*5
 まずこれらが位置及び尺度に関して不変であることを示す。これにより標準化をしても両指標がその性質を保つことが分かる。
 確率変数X_i\sim P_{\theta},i.i.d.,i=1,\cdots,nに対して標本歪度\sqrt{b}_1(X_1,\cdots,X_n)および標本尖度b_2(X_1,\cdots,X_n)が定義されているとする。このときa,b\in\mathbb{R}に対してY_i=aX_i+bとおくとき、



\begin{aligned}
\sqrt{b}_1(X_1,\cdots,X_n)&=\sqrt{b}_1 (Y_1,\cdots,Y_n ),\\
b_2(X_1,\cdots,X_n)&=b_2 (Y_1,\cdots,Y_n)
\end{aligned}


が成り立つ。
(\because 定義より\bar{Y}=a\bar{X}+bであることに注意すれば、r\geq2に対して



\begin{aligned}
m_r(Y_1,\cdots,Y_n)=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}(Y_i-\bar{Y})^r}=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}(aX_i-a\bar{X})^r}=a^r m_r(X_1,\cdots,X_n)
\end{aligned}


が成り立つから



\begin{aligned}
\sqrt{b}_1(Y_1,\cdots,Y_n)&=\displaystyle{\frac{m_3(X_1,\cdots,X_n)}{m_2(X_1,\cdots,X_n)^{\frac{3}{2}}}}=\sqrt{b}_1(X_1,\cdots,X_n),\\
b_2(Y_1,\cdots,Y_n)&=\displaystyle{\frac{m_4(Y_1,\cdots,Y_n)}{m_2(Y_1,\cdots,Y_n)^2}}=\displaystyle{\frac{m_4(X_1,\cdots,X_n)}{m_2(X_1,\cdots,X_n)^2}}=b_2(X_1,\cdots,X_n)
\end{aligned}


である。 \blacksquare)

 次にr次モーメントが一致推定量であることを示す。
 一般性を失うことなく\mu=0とおく。このとき



\begin{aligned}
M_r=\displaystyle{\frac{1}{n}\sum_{i=1}^{n}X_i^r},r\geq1
\end{aligned}


と定義すると、



\begin{aligned}
V[M_r]=\displaystyle{\frac{\mu_{2r}}{n}}
\end{aligned}


である。Chebyshevの定理より



\begin{aligned}
P\{|M_r-\mu_r|\gt\varepsilon\}\leq\displaystyle{\frac{\mu_{2r}}{n\varepsilon^2}}\rightarrow0(n\rightarrow\infty)
\end{aligned}


が成立する、すなわちM_r\xrightarrow{P}\mu_rが成り立つ。
 二項定理から



\begin{aligned}
m_r=M_r-{}_{r}C_{1}\bar{X}M_{r-1}+\cdots +(-1)^r\bar{X}^r
\end{aligned}


となるが、\bar{X}\xrightarrow{P}\mu=0であるから、



\begin{aligned}
m_r\xrightarrow{P}M_r=\mu_r
\end{aligned}


が成り立つ、すなわちm_rは一致推定量である。

参考文献

  • Lehmann, E.L., Casella, George(1998), "Theory of Point Estimation, Second Edition", (Springer)
  • Lehmann, E.L., Romano, Joseph P.(2005), "Testing Statistical Hypotheses, Third Edition", (Springer)
  • Sturges, Herbert A.,(1926), "The Choice of a Class Interval", (Journal of the American Statistical Association, Vol. 21, No. 153 (Mar., 1926)), pp. 65-66
  • 上田拓治(2009)「44の例題で学ぶ統計的検定と推定の解き方」(オーム社)
  • 大田春外(2000)「はじめよう位相空間」(日本評論社)
  • 小西貞則(2010)「多変量解析入門――線形から非線形へ――」(岩波書店)
  • 小西貞則,北川源四郎(2004)「シリーズ予測と発見の科学2 情報量基準」(朝倉書店)
  • 小西貞則,越智義道,大森裕浩(2008)「シリーズ予測と発見の科学5 計算統計学の方法」(朝倉書店)
  • 佐和隆光(1979)「統計ライブラリー 回帰分析」(朝倉書店)
  • 清水泰隆(2019)「統計学への確率論,その先へ ―ゼロからの速度論的理解と漸近理論への架け橋」(内田老鶴圃)
  • 鈴木 武, 山田 作太郎(1996)「数理統計学 基礎から学ぶデータ解析」(内田老鶴圃)
  • 竹内啓・編代表(1989)「統計学辞典」(東洋経済新報社)
  • 竹村彰通(1991)「現代数理統計学」(創文社)
  • 竹村彰通(2020)「新装改訂版 現代数理統計学」(学術図書出版社)
  • 東京大学教養学部統計学教室編(1991)「基礎統計学Ⅰ 基礎統計学」(東京大学出版会)
  • 東京大学教養学部統計学教室編(1994)「基礎統計学Ⅱ 人文・社会科学の統計学」(東京大学出版会)
  • 東京大学教養学部統計学教室編(1992)「基礎統計学Ⅲ 自然科学の統計学」(東京大学出版会)
  • 豊田秀樹(2020)「瀕死の統計学を救え! ―有意性検定から「仮説が正しい確率」へ―」(朝倉書店)
  • 永田靖(2003)「サンプルサイズの決め方」(朝倉書店)
  • 柳川堯(2018)「P値 その正しい理解と適用」(近代科学社)

*1:これを統計的推測という。

*2:標本の1つ1つを書き下す場合、このようにベクトルのように表示することが多い。

*3:標本は実際に観測しない限りは、どのような値が出るかは確定しない。観測して初めて値が確定する。この点に注意せよ。

*4:不偏性については後の章で触れる。

*5:一致性は後述する。

プライバシーポリシー お問い合わせ