「大人の教養・知識・気付き」を伸ばすブログ

一流の大人(ビジネスマン、政治家、リーダー…)として知っておきたい、教養・社会動向を意外なところから取り上げ学ぶことで“気付く力”を伸ばすブログです。データ分析・語学に力点を置いています。 →現在、コンサルタントの雛になるべく、少しずつ勉強中です(※2024年1月21日改訂)。

MENU

ファイナンスのための確率過程を丁寧に(02/X)

 ファイナンスのために基礎から

を基に確率過程を学んでいきます。

3. ランダムウォークマルチンゲール

3.1 ランダムウォークー対称ランダムウォークと非対称ランダムウォーク

 時間パラメータtにより添字付けされた確率変数を確率過程という。その最も基本的なものがランダムウォークである。確率\displaystyle{\frac{1}{2}}1、確率\displaystyle{\frac{1}{2}}-1を取る確率変数\xi_iを考えるとき、Z_t=\displaystyle{\sum_{i=1}^{t}\xi_i},Z_0=0を1次元対称ランダムウォークという。もし一方の確率をp\neq\displaystyle{\frac{1}{2}}としたときを1次元非対称ランダムウォークという。

3.1.1 ランダムウォークの性質

 1次元ランダムウォークは以下の性質を持つ

  • P(Z_t=k)=\begin{cases}{}_{t}C_{\frac{t+k}{2}}p^{\frac{t+k}{2}}(1-p)^{\frac{t-k}{2}},&-t\leq k\leq t,t+k\equiv0(\mathrm{mod}\ 2)\\0,&\mathrm{otherwise}\end{cases}
  • E[Z_t]=t,V[Z_t]=4p(1-p)t
  • Z_s,Z_t-Z_sは独立
  • t,h\gt0についてZ_h,Z_{t+h}-Z_tは同一の分布に従う


\begin{aligned}
P\{Z_3=3\}&=\left(\displaystyle{\frac{1}{2}}\right)^3=\displaystyle{\frac{1}{8}}\\
P\{Z_3=1\}&={}_{3}C_{1}\left(\displaystyle{\frac{1}{2}}\right)^3=\displaystyle{\frac{3}{8}}\\
P\{Z_3=1\cap Z_7=3\}&=P\{Z_3=1\cap Z_7-Z_3=2\}\\&=P\{Z_3=1\}P\{Z_7-Z_3=2\}=P\{Z_3=1\}P\{Z_4=2\}\\&=\displaystyle{\frac{3}{8}}\displaystyle{\frac{1}{4}}=\displaystyle{\frac{3}{32}}\\
E[Z_3]&=0\\
V[Z_3]&=3\\
E[Z_sZ_t]&=E[Z_s(Z_s-Z_s+Z_t)]=E[Z_s^2]-E[Z_s(Z_s-Z_t)]\\&=V[Z_s]+(E[Z_s])^2-E[Z_s]E[Z_s-Z_t]=s\\
\mathrm{Cov}[Z_s,Z_t]&=E[Z_sZ_t]-E[Z_s]E[Z_t]=s\\
E\left[e^{\alpha Z_t}\right]&=E\left[e^{\alpha(\xi_1+\cdots+\xi_t)}\right]\\&=E\left[e^{\alpha\xi_1}\right]\cdots E\left[e^{\alpha\xi_t}\right]\\&=\left(\displaystyle{\frac{e^{\alpha}+e^{-\alpha}}{2}}\right)^t\\
\end{aligned}

であり、また\mathrm{Markov}過程Z_tの推移確率行列P


\begin{aligned}
p_{ij}=\begin{cases}\displaystyle{\frac{1}{2}},&j=i\pm1\\0,&\mathrm{otherwise}\end{cases}
\end{aligned}

である。

3.2 条件付き期待値


定義3.1 条件付き期待値(離散) 事象X=kの下でのYの条件付き期待値E[Y|X=k]


\begin{aligned}
E[Y|X=k]=\displaystyle{\sum_{l=1}^{n}l P\{Y=l|X=k\}}
\end{aligned}

で定義する。ここで


\begin{aligned}
P\{Y=l|X=k\}=\displaystyle{\frac{P\{X=k\cap Y=l\}}{P\{X=k\}}}
\end{aligned}

とする。
 またf(k)=E[Y|X=k]としたとき、


\begin{aligned}
E[Y|X]=f(X)
\end{aligned}

と定義する。



定理3.1 条件付き期待値の性質 X,Y,Y_1,Y_2を離散確率変数とする。このとき以下が成り立つ。

  • 任意の実数\alpha_1,\alpha_2について
    \begin{aligned}E[\alpha_1 Y_1+\alpha_2 Y_2|X]=\alpha_1 E[Y_1|X]+\alpha_2 E[Y_2|X]\end{aligned}
  • 任意の関数gについてE[g(X)Y|X]=g(X)E[Y|X]
  • 任意の関数gについてE[E[Y|X]g(X)]=E[Y g(X)]
  • X,Yが独立ならばE[Y|X]=E[Y]
  • C\in\mathbb{R}とすれば、E[C|X]=C

(\because 1つ目は期待値の線形性から明らかである。また2つ目も


\begin{aligned}
E[g(X)Y|X=k]&=\displaystyle{\sum_{l=1}^{n}g(k)l P\{Y=l|X=k\}}\\
&=g(k)\displaystyle{\sum_{l=1}^{n}l P\{Y=l|X=k\}}\\
&=g(k)E[Y|X=k]
\end{aligned}

であるから、k=XとおくことでE[g(X)Y|X]=g(X)E[Y|X]が得られる。
 また任意の関数gについて


\begin{aligned}
E[E[Y|X]g(X)]&=\displaystyle{\sum_{k=1}^{n}E[Y|X=k]g(k)P\{X=k\}}\\
&=\displaystyle{\sum_{k=1}^{n}\left(\displaystyle{\sum_{l=1}^{n}g(k)l P\{Y=l|X=k\}}\right)P\{X=k\}}\\
&=\displaystyle{\sum_{k=1}^{n}\left(\sum_{l=1}^{n}g(k)l P\{Y=l\cap X=k\}\right)}\\
&=E[Y g(X)]
\end{aligned}

 さらに4つ目は条件付き確率を用いた独立の定義から


\begin{aligned}
E[Y|X=k]&=\displaystyle{\sum_{l=1}^{n}l P\{Y=l|X=k\}}\\
&=\displaystyle{\sum_{l=1}^{n}l P\{Y=l\}}\\
&=E[Y]
\end{aligned}

である。最後に5つ目は


\begin{aligned}
E[C|X=k]=C\displaystyle{\sum_{l=1}^{n}P\{Y=l|X=k\}}=C
\end{aligned}

である。  \blacksquare)



定理3.2 最良予測値としての条件付き期待値 確率変数X,Yに対して


\begin{aligned}
E[(Y-g(X))^2]
\end{aligned}

を最小にする関数gg(X)=E[Y|X]である。

(\because 


\begin{aligned}
E[(Y-g(X))^2]=&E[(Y-E[Y|X]+E[Y|X]-g(X))^2]\\
=&E[\{(Y-E[Y|X])+(E[Y|X]-g(X))\}^2]\\
=&E[(Y-E[Y|X])^2]+2E[(Y-E[Y|X])(E[Y|X]-g(X))]\\
&+E[(E[Y|X]-g(X))^2]
\end{aligned}

である。ここで


\begin{aligned}
&E[(Y-E[Y|X])(E[Y|X]-g(X))]\\
=&E[Y(E[Y|X]-g(X))]-E[E[Y|X](E[Y|X]-g(X))]\\
=&E[Y(E[Y|X]-g(X))]-E[E[Y|X](E[Y|X]-g(X))]\\
=&E[Y E^[Y|X]]-E[Y g(X)]-E[Y(E[Y|X])]+E[E[Y|X]g(X)]\\
=&E[Y E^[Y|X]]-E[Y g(X)]-E[Y E[Y|X]]+E[Y g(X)]\\
=&0
\end{aligned}

が成り立つから、


\begin{aligned}
E[(Y-g(X))^2]=&E[(Y-E[Y|X])^2]\\
&+E[(E[Y|X]-g(X))^2]
\end{aligned}

であり、第1項はgに関係が無いため、第2項のみを考えればよく、最小になるのはg(X)=E[Y|X]のときである。 \blacksquare)



定理3.3 条件付き期待値のタワープロパティ 確率変数X,Y,Wについて


\begin{aligned}
E[E[W|X,Y]|X]=E[W|X]
\end{aligned}

が成り立つ。同様にt\gt sとして、X_1,\cdots,X_tについて


\begin{aligned}
E[E[Z|X_1,\cdots,X_t]|X_1,\cdots,X_s]=E[Z|X_1,\cdots,X_s]
\end{aligned}

が成り立つ。

(\because 条件付き期待値を定義通りに計算することで、


\begin{aligned}
E[E[W|X,Y]|X=k]&=\displaystyle{\sum_{l=1}^{n}E[W|X=k,Y=l]P(Y=l|X=k)}\\
&=\displaystyle{\sum_{l=1}^{n}\left(\sum_{m=1}^{k} m\frac{P\{W=m\cap X=k\cap Y=l\}}{P\{X=k\cap Y=l\}}\frac{P\{X=k\cap Y=l\}}{P\{X=k\}}\right)}\\
&=\displaystyle{\sum_{l=1}^{n}\left(\sum_{m=1}^{k} m\frac{P\{W=m\cap X=k\cap Y=l\}}{P\{X=k\}}\right)}\\
&=\displaystyle{\sum_{m=1}^{k} m\left(\sum_{l=1}^{n}\frac{P\{W=m\cap X=k\cap Y=l\}}{P\{X=k\}}\right)}\\
&=\displaystyle{\sum_{m=1}^{k} m\frac{P\{W=m\cap X=k\}}{P\{X=k\}}}\\
&=E[W|X=k]\\
\end{aligned}

が得られる。これと同様のことを帰納的に行うことで2つ目の命題も同様に示すことができる。 \blacksquare)



定義3.2 連続確率変数の条件付き期待値 f_{X,Y}(x,y)を2次元連続確率変数(X,Y)の同時密度関数、f_Y(y)Yの周辺密度関数とする。このとき


\begin{aligned}
f_{X|Y}(x|y)&=\displaystyle{\frac{f_{X,Y}(x,y)}{f_Y(y)}},\\
E[X|Y=y]&=\displaystyle{\int_{-\infty}^{\infty}x f_{X,Y}(x,y)}dx
\end{aligned}

をそれぞれY=yの下でのXの条件付き密度関数および条件付き期待値と呼ぶ。またこれを基に条件付き期待値においてy=Yと置き換えたものとしてE[X|Y]を定義する。

例:


\begin{aligned}
f_{X,Y}(x,y)=\begin{cases}2e^{-x}e^{-y},&0\lt x\lt y\lt\infty\\0,&\mathrm{otherwise}\end{cases}
\end{aligned}


について、f_{Y|X}(y|x),E[Y|X=x],E[Y|X]を計算する。
 x\gt0について


\begin{aligned}
f_X(x)&=\displaystyle{\int_{-\infty}^{\infty}f_{X,Y}(x,y)}dy\\
&=\displaystyle{\int_{x}^{\infty}2e^{-x}e^{-y}}dy\\
&=2e^{-x}\displaystyle{\int_{x}^{\infty}e^{-y}}dy\\
&=2e^{-x}\left[-e^{-y}\right]_{x}^{\infty}\\
&=2e^{-2x}
\end{aligned}


であることに注意すれば、


\begin{aligned}
f_{Y|X}(y|x)&=\displaystyle{\frac{f_{X,Y}(x,y)}{f_X(x)}}\\
&=\displaystyle{\frac{f_{X,Y}(x,y)}{2e^{-2x}}}\\
&=\displaystyle{\frac{f_{X,Y}(x,y)}{2e^{-2x}}}\\
&=\begin{cases}
e^{x-y},&0\lt x\leq y\lt\infty\\0,&\mathrm{otherwise}
\end{cases}
\end{aligned}

である。
 また


\begin{aligned}
E[Y|X=x]&=\displaystyle{\int_{-\infty}^{\infty}y f_{Y|X}(y|x)}dy\\
&=\displaystyle{\int_{x}^{\infty}y e^{x-y}}dy\\
&=e^x\displaystyle{\int_{x}^{\infty}y e^{-y}}dy\\
\end{aligned}

であり、


\begin{aligned}
\displaystyle{\int_{x}^{\infty}y e^{-y}}dy=&\left[-y e^{-y}\right]_{x}^{\infty}+\displaystyle{\int_{x}^{\infty}e^{-y}}dy\\
=&x e^{-x}+\left[-e^{-y}\right]_{x}^{\infty}\\
=&x e^{-x}+\left[-e^{-y}\right]_{x}^{\infty}\\
=&xe^{-x}+e^{-x}
\end{aligned}

を代入することで


\begin{aligned}
E[Y|X=x]=e^x(xe^{-x}+e^{-x})=x+1
\end{aligned}

である。
 最後に


\begin{aligned}
E[Y|X]=X+1
\end{aligned}

である。

3.3 ランダムウォークマルチンゲール

 公平な賭けの抽象化で確率論において重要な概念としてマルチンゲールがある。


定義3.3 マルチンゲール 確率変数X_tY_1,\cdots,Y_tについてマルチンゲールであるとは、


\begin{aligned}
{}^{\forall}t\gt0\left(E[X_{t+1}|Y_1,\cdots,Y_t]=X_t\right)
\end{aligned}

が成り立つことをいう。

例1:
 t\leq Tについて、


\begin{aligned}
X_t&=E[f(Y_1,\cdots,Y_T)|Y_1,\cdots,Y_t]\\
X_0&=E[f(Y_1,\cdots,Y_T)]
\end{aligned}

と定義する。このとき定理3.3に注意すれば、


\begin{aligned}
E[X_{t+1}|Y_1,\cdots,Y_t]&=E[E[f(Y_1,\cdots,Y_T)|Y_1,\cdots,Y_{t+1}]|Y_1,\cdots,Y_t]\\
&=E[f(Y_1,\cdots,Y_T)|Y_1,\cdots,Y_t]\\
&=X_t
\end{aligned}

が成り立つから、これはマルチンゲールで、特に\mathrm{Doob}マルチンゲールという。

例2:
 X_t=E[e^{Z_T}|\xi_1,\cdots,\xi_t],0\leq t\leq Tを求める。


\begin{aligned}
X_t&=E[e^{Z_T}|\xi_1,\cdots,\xi_t]\\
&=E[e^{Z_T-Z_t}e^{Z_t}|\xi_1,\cdots,\xi_t]\\
&=e^{Z_t}E[e^{Z_T-Z_t}|\xi_1,\cdots,\xi_t]\\
&=e^{Z_t}E[e^{Z_T-Z_t}]\\
&=e^{Z_t}(E[e^{\xi_1}])^{T-t}\\
&=e^{Z_t}\left(\displaystyle{\frac{e^1+e^{-1}}{2}}\right)^{T-t}\\
\end{aligned}

である。

3.4 ランダムウォークに関するマルチンゲール表現定理


定理3.4 1次元対称ランダムウォークに関するマルチンゲール表現定理 確率変数U_tランダムウォーク(における各推移)\xi_1,\cdots,\xi_t\in{\pm1}に関してマルチンゲールならば、ある関数(f_1,f_2(\xi_1),\cdots,f_t(\xi_1,\cdots,\xi_{t-1}))が存在し、


\begin{aligned}
U_t=U_0+f_1\xi_1+\cdots+f_t(\xi_1,\cdots,\xi_{t-1})\xi_t
\end{aligned}

と表すことができる。

(\because 仮定からU_{t+1}-U_t=h(\xi_1,\cdots,\xi_{t+1})とおくと、


\begin{aligned}
0&=E[U_{t+1}|\xi_1,\cdots,\xi_{t}]-U_t\\
&=E[U_{t+1}-U_{t}|\xi_1,\cdots,\xi_{t}]\\
&=E[h(\xi_1,\cdots,\xi_{t},\xi_{t+1})|\xi_1,\cdots,\xi_{t}]
\end{aligned}

が成り立つから、任意の\xi_1=x_1,\cdots,\xi_t=x_t,x_i\in\{\pm1\}に対して


\begin{aligned}
0&=E[h(\xi_1,\cdots,\xi_{t},\xi_{t+1})|\xi_1=x_1,\cdots,\xi_{t}=x_t]\\
&=E[h(x_1,\cdots,x_{t},\xi_{t+1})]\\
&=\displaystyle{\frac{1}{2}}h(x_1,\cdots,x_{t},1)+\displaystyle{\frac{1}{2}}h(x_1,\cdots,x_{t},-1)
\end{aligned}

である。したがってh(x_1,\cdots,x_{t},1)=-h(x_1,\cdots,x_{t},-1)が成り立つ。
 ここで


\begin{aligned}
\displaystyle{\frac{U_{t+1}-U_t}{\xi_{t+1}}}&=\displaystyle{\frac{h(\xi_1,\cdots,\xi_{t},\xi_{t+1})}{\xi_{t+1}}}\\
&=\begin{cases}
\displaystyle{\frac{h(\xi_1,\cdots,\xi_{t},+1)}{1}},&\xi_{t+1}=+1,\\
\displaystyle{\frac{h(\xi_1,\cdots,\xi_{t},-1)}{-1}},&\xi_{t+1}=-1
\end{cases}
\end{aligned}

が成立するから、これは\xi_{t+1}に依存しない。そこでf_{t+1}(\xi_1,\cdots,\xi_t)=\displaystyle{\frac{U_{t+1}-U_t}{\xi_{t+1}}}とおけば、


\begin{aligned}
U_{t+1}-U_t=\xi_{t+1}f_{t+1}(\xi_1,\cdots,\xi_t)
\end{aligned}

が得られ、したがって


\begin{aligned}
U_{t+1}-U_0&=\displaystyle{\sum_{i=1}^{t}U_{i+1}-U_i}\\
&=f_1\xi_1+f_2(\xi_1)\xi_2+\cdots+f_t(\xi_1,\cdots,\xi_{t-1})\xi_t
\xi_{t+1}f_{t+1}(\xi_1,\cdots,\xi_t)
\end{aligned}

である。 \blacksquare)


 定数\alphaを用いたU_t=\exp\left(\alpha Z_t-\beta t\right)\xi_1,\cdots,\xi_tに関してマルチンゲールになるように\beta\alphaで表し、そのときの賭け方の戦略(f_1,f_2(\xi_1),\cdots,f_t(\xi_1,\cdots,\xi_{t-1}))を求めよ。
 まずはマルチンゲールの定義


\begin{aligned}
E\left[U_{t+1}|\xi_1,\cdots,\xi_{t}\right]=U_t
\end{aligned}

から、


\begin{aligned}
E\left[U_{t+1}\left|\right.\xi_1,\cdots,\xi_{t}\right]&=E\left[\exp\left(\alpha Z_{t+1}-\beta(t+1)\right)\left|\right.\xi_1,\cdots,\xi_{t}\right]\\
&=U_t E\left[\exp\left(\alpha \xi_{t+1}-\beta\right)\left|\right.\xi_1,\cdots,\xi_{t}\right]\\
&=U_t e^{-\beta} E\left[\exp\left(\alpha \xi_{t+1}\right)\left|\right.\xi_1,\cdots,\xi_{t}\right]\\
&=U_t e^{-\beta} \displaystyle{\frac{e^{\alpha}+e^{-\alpha}}{2}}
\end{aligned}

より、U_t e^{-\beta} \displaystyle{\frac{e^{\alpha}+e^{-\alpha}}{2}}=U_tであり


\begin{aligned}
&e^{-\beta} \displaystyle{\frac{e^{\alpha}+e^{-\alpha}}{2}}=1\\
\Leftrightarrow&\displaystyle{\frac{e^{\alpha}+e^{-\alpha}}{2}}=e^{\beta}\\
\Leftrightarrow&\beta=\log\left(\displaystyle{\frac{e^{\alpha}+e^{-\alpha}}{2}}\right)
\end{aligned}

が成り立てば、マルチンゲールを満たす。
 またそのとき


\begin{aligned}
\displaystyle{\frac{U_{t+1}-U_t}{\xi_{t+1}}}=\displaystyle{\frac{\left\{\exp\left(\alpha\xi_{t+1}-\beta\right)-1\right\}U_t}{\xi_{t+1}}}=\displaystyle{\frac{e^{\alpha}-e^{-\alpha}}{e^{\alpha}+e^{-\alpha}}}U_t
\end{aligned}

が成り立つから、求める戦略は


\begin{aligned}
f_t\left(\xi_1,\cdots,\xi_{t-1}\right)=\displaystyle{\frac{e^{\alpha}-e^{-\alpha}}{e^{\alpha}+e^{-\alpha}}}U_{t-1}
\end{aligned}

である。


 さて今後の議論をすべく、U_tランダムウォークで表すことにする。


\begin{aligned}
U_t=&f_1\xi_1+\cdots+f_t\left(\xi_1,\cdots,\xi_{t-1}\right)\xi_t\\
=&f_1(Z_1-Z_0)+f_2(\xi_1)(Z_2-Z_1)+\cdots+f_t(\xi_1,\cdots,\xi_{t-1})(Z_t-Z_{t-1})\\
=&f_1(Z_1-Z_0)+f_2(Z_1-Z_0)(Z_2-Z_1)+\cdots\\
&+f_t(Z_1-Z_0,\cdots,Z_{t-1}-Z_{t-2})(Z_t-Z_{t-1})\\
=&g_1(Z_1-Z_0)+\cdots+g_t(Z_1,Z_2,\cdots,Z_{t-1})(Z_t-Z_{t-1})\\
=&\displaystyle{\sum_{i=1}^{t}g_i(Z_1,Z_2,\cdots,Z_{i-1})}(Z_i-Z_{i-1})
\end{aligned}

である。これらをランダムウォークZ_tに関する離散確率積分という。


1次元日対称ランダムウォークマルチンゲール表現定理 U_t\xi_{1}^{\prime},\cdots,\xi_{t}^{\prime}に関するマルチンゲールとする。すなわち{}^{\forall}tに対して


\begin{aligned}
E\left[U_{t+1}\left|\right.\xi_{1}^{\prime},\cdots,\xi_{t}^{\prime}\right]=U_t
\end{aligned}

が成り立つとする。このとき、ある戦略f_1,f_2(\xi_1^{\prime}),\cdots,f_t(\xi_1^{\prime},\cdots,\xi_{t-1}^{\prime})が存在して


\begin{aligned}
U_t=&f_{1}\left(\xi_{1}^{\prime}-(p-q)\right)+f_{2}(\xi_{1}^{\prime})\left(\xi_{2}^{\prime}-(p-q)\right)+\cdots\\
&+f_{t}\left(\xi_{1}^{\prime},\cdots,\xi_{t-1}^{\prime}\right)\left(\xi_{t}^{\prime}-(p-q)\right)
\end{aligned}

が成り立つ。ただしq=1-pである。

(\because U_{t+1}-U_t=h\left(\xi_{1}^{\prime},\cdots,\xi_{t+1}^{\prime}\right)とおくと


\begin{aligned}
0=E\left[U_{t+1}-U_t\left|\right.\xi_{1}^{\prime},\cdots,\xi_{t}^{\prime}\right]=E\left[h\left(\xi_{1}^{\prime},\cdots,\xi_{t+1}^{\prime}\right)\left|\right.\xi_{1}^{\prime},\cdots,\xi_{t}^{\prime}\right]
\end{aligned}

したがって、任意のx_1,\cdots,x_t\in\{0,1\}および0\lt p\lt1,q=1-pに対して


\begin{aligned}
0=h\left(x_1,\cdots,x_t,1\right)p+h\left(x_1,\cdots,x_t,-1\right)q
\end{aligned}

が成り立つ。すると


\begin{aligned}
\displaystyle{\frac{U_{t+1}-U_t}{\xi_{t+1}^{\prime}-(p-q)}}&=\displaystyle{\frac{h\left(\xi_{1}^{\prime},\cdots,\xi_{t+1}^{\prime}\right)}{\xi_{t+1}^{\prime}-(p-q)}}\\
&=\begin{cases}
\displaystyle{\frac{h\left(\xi_{1}^{\prime},\cdots,1\right)}{1-(p-q)}},&\xi_{t+1}^{\prime}=1\\
\displaystyle{\frac{h\left(\xi_{1}^{\prime},\cdots,-1\right)}{-1-(p-q)}},&\xi_{t+1}^{\prime}=-1
\end{cases}
\end{aligned}

である。\xi_{t+1}^{\prime}=1のとき、最初の条件式0=h\left(x_1,\cdots,x_t,1\right)p+h\left(x_1,\cdots,x_t,-1\right)qより


\begin{aligned}
\displaystyle{\frac{h\left(\xi_{1}^{\prime},\cdots,1\right)}{1-(p-q)}}&=\displaystyle{\frac{h\left(\xi_{1}^{\prime},\cdots,1\right)p}{p-p(p-q)}}\\
&=\displaystyle{\frac{h\left(x_1,\cdots,x_t,-1\right)q}{p(p-q)-p}}\\
\end{aligned}

であり、この分子は


\begin{aligned}
p(p-q)-p&=p(p-q)-1+q=-1+(1-q)(p-q)+q\\
&=-1+p-pq-q+q^2+q\\
&=(-1+p)+q(q-p)\\
&=-q+q(q-p)\\
&=q\left(-1-(p-q)\right)
\end{aligned}

と変形できる。したがってこの変形結果を代入することで


\begin{aligned}
\displaystyle{\frac{h\left(\xi_{1}^{\prime},\cdots,1\right)}{1-(p-q)}}=\displaystyle{\frac{h\left(x_1,\cdots,x_t,-1\right)}{-1-(p-q)}}
\end{aligned}

\displaystyle{\frac{U_{t+1}-U_t}{\xi_{t+1}^{\prime}-(p-q)}}\xi_{t+1}^{\prime}に依らずに同じ値を取るから、この値をf_{t+1}\left(\xi_{1}^{\prime},\cdots,\xi_{t}^{\prime}\right)とすればよい。 \blacksquare)

3.5 離散伊藤公式

 ランダムウォークの場合でも伊藤の公式が存在する。これは連続時間の確率解析を直観的に理解するのに役立つ。


1次元対称ランダムウォークに関する離散伊藤公式 1次元ランダムウォーク\left\{Z_t\right\}_{t=1,2,\cdots}および連続な関数fに関して


\begin{aligned}
f\left(Z_{t+1}\right)-f\left(Z_{t}\right)=&\displaystyle{\frac{f\left(Z_{t}+1\right)-f\left(Z_{t}-1\right)}{2}}\left(Z_{t+1}-Z_t\right)\\
&+\displaystyle{\frac{f\left(Z_{t}+1\right)-2f\left(Z_{t}\right)+f\left(Z_{t}-1\right)}{2}}
\end{aligned}

および


\begin{aligned}
f\left(Z_{t+1},t+1\right)-f\left(Z_{t},t\right)=&\displaystyle{\frac{f\left(Z_{t+1},t+1\right)-f\left(Z_{t-1},t+1\right)}{2}}\left(Z_{t+1}-Z_t\right)\\
&+\displaystyle{\frac{f\left(Z_{t}+1,t+1\right)-2f\left(Z_{t},t+1\right)+f\left(Z_{t}-1,t+1\right)}{2}}\\
&+f\left(Z_t,t+1\right)-f\left(Z_t,t\right)
\end{aligned}

が成立する。

(\because それぞれについて、


\begin{aligned}
&(左辺)-(右辺第2項)\\
=&f\left(Z_{t+1}\right)-\displaystyle{\frac{f\left(Z_{t}+1\right)+f\left(Z_{t}-1\right)}{2}}\\
=&f\left(Z_{t}+\xi_{t+1}\right)-\displaystyle{\frac{f\left(Z_{t}+1\right)+f\left(Z_{t}-1\right)}{2}}\\
=&\begin{cases}
\displaystyle{\frac{f\left(Z_{t}+1\right)-f\left(Z_{t}-1\right)}{2}},&\xi_{t+1}=+1,\\
\displaystyle{\frac{f\left(Z_{t}-1\right)-f\left(Z_{t}+1\right)}{2}},&\xi_{t+1}=-1
\end{cases}\\
=&\xi_{t+1}\displaystyle{\frac{f\left(Z_{t}+1\right)-f\left(Z_{t}-1\right)}{2}}\\
=&\displaystyle{\frac{f\left(Z_{t}+1\right)-f\left(Z_{t}-1\right)}{2}}\left(Z_{t+1}-Z_{t}\right)\\\\
&(左辺)-( (右辺第2項)+(右辺第3項) )\\
=&f\left(Z_{t+1},t+1\right)-\displaystyle{\frac{f\left(Z_{t}+1,t+1\right)+f\left(Z_{t}-1,t+1\right)}{2}}\\
=&f\left(Z_{t}+\xi_{t+1},t+1\right)-\displaystyle{\frac{f\left(Z_{t}+1,t+1\right)+f\left(Z_{t}-1,t+1\right)}{2}}\\
=&\begin{cases}
\displaystyle{\frac{f\left(Z_{t}+1,t+1\right)-f\left(Z_{t}-1,t+1\right)}{2}},&\xi_{t+1}=+1,\\
\displaystyle{\frac{f\left(Z_{t}-1,t+1\right)-f\left(Z_{t}+1,t+1\right)}{2}},&\xi_{t+1}=-1
\end{cases}\\
=&\xi_{t+1}\displaystyle{\frac{f\left(Z_{t}+1,t+1\right)-f\left(Z_{t}-1,t+1\right)}{2}}\\
=&\displaystyle{\frac{f\left(Z_{t}+1,t+1\right)-f\left(Z_{t}-1,t+1\right)}{2}}\left(Z_{t+1}-Z_{t}\right)
\end{aligned}

が成り立つ。 \blacksquare)


 この定理を用いることで、\mathrm{Doob}-\mathrm{Meyer}分解を与えることができる。すなわち一般に離散確率過程X_t=h\left(\xi_1,\cdots,\xi_t\right),t=0,1,2,\cdotsがあったとき


\begin{aligned}
X_t=M_t+A_t
\end{aligned}

\xi_1,\cdots,\xi_tマルチンゲールM_tおよび可予測過程A_t=g(\xi_{1},\cdots,\xi_{t-1})の和に分解できる。
 実際、A_0=X_0,t\geq1について、


\begin{aligned}
A_t=\displaystyle{\sum_{k=1}^{t}E\left[X_{k}-X_{k-1}\left|\right.\xi_1,\cdots,\xi_{k-1}\right] }
\end{aligned}

と定義すると、A_tは可予測過程であり、更にt\geq0についてM_t=X_t-A_tと定義すると、X_t=M_t+A_tであり、M_0=0t\geq1について


\begin{aligned}
E\left[M_t\left|\right.\xi_1,\cdots,\xi_{t-1}\right]&=E\left[X_t-A_t\left|\right.\xi_1,\cdots,\xi_{t-1}\right]\\
&=E\left[X_t+(X_{t-1}-X_{t-1})-A_t\left|\right.\xi_1,\cdots,\xi_{t-1}\right]\\
&=E\left[X_t-X_{t-1}\left|\right.\xi_1,\cdots,\xi_{t-1}\right]+X_{t-1}-A_t\ (\because\ X_{t-1},A_tは確定的)\\
&=X_{t-1}-A_t
\end{aligned}

が成り立ち、これはM_tマルチンゲールであることに他ならない。
 またこの分解は一意的である。実際、ある確率過程X_tマルチンゲールM_t,M_t^{\prime}および可予測過程A_t,A_t^{\prime}を用いて


\begin{aligned}
X_t=M_t+A_t=M_t^{\prime}+A_t^{\prime}
\end{aligned}

と分解できると仮定する。このときM_t^{\prime}-M_t=A_t-A_t^{\prime}が成り立ち、


\begin{aligned}
A_t-A_t^{\prime}&=E\left[A_t-A_t^{\prime}\left|\right.\xi_1,\cdots,\xi_{t-1}\right]\\
&=E\left[M_t^{\prime}-M_t\left|\right.\xi_1,\cdots,\xi_{t-1}\right]\\
&=M_{t-1}^{\prime}-M_{t-1}\ (\because\ M_t,M_t^{\prime}はマルチンゲール)\\
&=A_{t-1}-A_{t-1}^{\prime}\\
&\vdots\\
&=M_0^{\prime}-M_0=0
\end{aligned}

となるから、A_t=A_t^{\prime}と分解は一意である。
 特にX_t=f(Z_t)-f(Z_0)=f(Z_t)-f(0)の場合、離散伊藤公式から\mathrm{Doob}-\mathrm{Meyer}分解は


\begin{aligned}
f(Z_t)-f(0)=&f(Z_{t})-f(Z_{t-1})+f(Z_{t-1})-f(Z_{t-2})+\cdots\\
&+f(Z_1)-f(Z_0)\\
=&\displaystyle{\sum_{i=0}^{t-1}\frac{f\left(Z_i+1\right)-f\left(Z_i-1\right)}{2}}\left(Z_{i+1}-Z_i\right)\\
&+\displaystyle{\sum_{i=0}^{t-1}\frac{f\left(Z_i+1\right)-2f\left(Z_i\right)+f\left(Z_i-1\right)}{2}}\left(Z_{i+1}-Z_i\right)\\
\end{aligned}

と得られる。
 1次元非対称ランダムウォークについても同様に離散伊藤公式を用いることができ、また\mathrm{Doob}-\mathrm{Meyer}分解を得ることもできる。


1次元非対称ランダムウォークに関する離散伊藤公式 1次元ランダムウォーク\left\{Z_t\right\}_{t=1,2,\cdots}および連続な関数fに関して、離散伊藤公式


\begin{aligned}
f\left(Z_{t+1}^{\prime}\right)-f\left(Z_{t}^{\prime}\right)=&\displaystyle{\frac{f\left(Z_{t}^{\prime}+1\right)-f\left(Z_{t}^{\prime}-1\right)}{2}}\left(Z_{t+1}^{\prime}-Z_t^{\prime}\right)\\
&+\displaystyle{\frac{f\left(Z_{t}^{\prime}+1\right)-2f\left(Z_{t}^{\prime}\right)+f\left(Z_{t}^{\prime}-1\right)}{2}}
\end{aligned}

および、それを用いた\mathrm{Doob}-\mathrm{Meyer}分解


\begin{aligned}
&f\left(Z_{t+1}^{\prime}\right)-f\left(Z_{t}^{\prime}\right)\\
=&\displaystyle{\frac{f\left(Z_{t}^{\prime}+1\right)-f\left(Z_{t}^{\prime}-1\right)}{2}}\left(Z_{t+1}^{\prime}-Z_t^{\prime}-(2p-1)\right)\\\\
&+\displaystyle{\frac{f\left(Z_{t}^{\prime}+1\right)-2f\left(Z_{t}^{\prime}\right)+f\left(Z_{t}^{\prime}-1\right)}{2}}\\
&+(2p-1)\displaystyle{\frac{f\left(Z_{t}^{\prime}+1\right)-f\left(Z_{t}^{\prime}-1\right)}{2}}
\end{aligned}

が成立する。

3.6 ランダムウォークに関する話題

 a\in\mathbb{Z},a\gt0および\tau_a=\inf\left\{t\left|\right.Z_t=a\right\}として新たな確率過程\tilde{Z}_t


\begin{aligned}
\tilde{Z}_t=\begin{cases}
Z_t,&t\leq\tau_a,\\
2a-Z_t.&t\gt\tau_a
\end{cases}
\end{aligned}

で定義する。これは最初に水準aに到達した時点t=\tau_aの後のZ_tのパスをy=aに対して対称に折り返したものである。このとき\tilde{Z}_t0から始まる対称ランダムウォークであり、Z_t\tilde{Z}_tは任意の有限次元分布が等しくなる。これをランダムウォークの鏡像原理という。

プライバシーポリシー お問い合わせ