[1]
\(E[X]\)
\(E[X]=\displaystyle \sum^\infty _{x=0} x f(x)\)\(=\displaystyle \sum^\infty _{x=0} x \frac{\lambda^x}{x!}e^{-\lambda}\)
\(x=0\)の時は、\(x f(x) = 0\)のため除いて、
\(=\displaystyle \sum^\infty _{x=1} x \frac{\lambda^x}{x!}e^{-\lambda}\)\(=\displaystyle \sum^\infty _{x=1} \frac{\lambda^x}{(x-1)!}e^{-\lambda}\)
\(=\displaystyle \lambda \sum^\infty _{x=1} \frac{\lambda^{x-1}}{(x-1)!}e^{-\lambda}\)\(=\displaystyle \lambda \sum^\infty _{x=0} \frac{\lambda^{x}}{x!}e^{-\lambda}\)
全確率は\(1\)なので
\(=\displaystyle \lambda \)
\(V[X]\)
\(E[X(X-1)]=\displaystyle \sum^\infty _{x=0} x(x-1) f(x)\)\(=\displaystyle \sum^\infty _{x=0} x(x-1)\frac{\lambda^x}{x!}e^{-\lambda}\)
\(x=0,1\)の時は、\(x(x-1) f(x) = 0\)のため除いて、
\(=\displaystyle \sum^\infty _{x=2} x(x-1) \frac{\lambda^x}{x!}e^{-\lambda}\)\(=\displaystyle \sum^\infty _{x=2} \frac{\lambda^x}{(x-2)!}e^{-\lambda}\)
\(=\displaystyle \lambda^2 \sum^\infty _{x=2} \frac{\lambda^{x-2}}{(x-2)!}e^{-\lambda}\)\(=\displaystyle \lambda^2 \sum^\infty _{x=0} \frac{\lambda^{x}}{x!}e^{-\lambda}\)
全確率は\(1\)なので
\(=\displaystyle \lambda^2 \)
\(E[X(X-1)] = E[X^2] – E[X] = \lambda\)と\(V[X] = E[X^2] -E[X]^2\)から、
\(V[X] = E[X(X-1)] +E[X]-E[X]^2\)
\(= \lambda^2 +\lambda-\lambda^2 = \lambda\)
\(E[S_n],V[S_n]\)
各\(X_i\)は独立であるため、
\(E[S_n] = \displaystyle E\left[\sum^n_{i=1}X_i\right]\)\( = \displaystyle \sum^n_{i=1}E[X_i]\)\(= n\lambda\)
\(V[S_n] = \displaystyle V\left[\sum^n_{i=1}X_i\right]\)\( = \displaystyle \sum^n_{i=1}V[X_i]\)\(= n\lambda\)
[2]
\(1 \leq j \leq n\)である\(j\)に対して、\(\displaystyle W_n = \sum^n _{i=1} a_i X_i\)の両辺を\(X_j\)で偏微分すると、
\(\displaystyle a_j = \frac{\partial W_n}{\partial X_j}\)
\(\displaystyle = \frac{\partial}{\partial X_j} \sum^n_{k=1} S_k\)
\(\displaystyle = \sum^n_{k=1}\frac{\partial S_k}{\partial X_j} \)
\(\displaystyle = \sum^n_{k=1}\frac{\partial }{\partial X_j} \sum^k_{i=1} X_i \)
ここで、\(\displaystyle \frac{\partial }{\partial X_j} \sum^k_{i=1} X_i \)の部分は、\(k \geq j\)の時、\(\displaystyle \sum^k_{i=1} X_i\)の項に\(X_j\)が1つ存在し、\(1\)となるため、
\(\displaystyle = \sum^n_{k=1}1_{\{k \geq j\}}\) (ただし\(1_{\{k \geq j\}}\)は\(k \geq j\)のとき\(1\)を返し、それ以外のとき\(0\)を返す指示関数)
\(=n-j+1\)
よって、\(a_i = n-i+1\)
[3]
\(E[W_n]\)
\(\displaystyle E[W_n] = E\left[\sum^n_{i=1}(n-i+1)X_i\right]\)\(\displaystyle = \sum^n_{i=1}(n-i+1)E\left[X_i\right]\)
\(\displaystyle = \lambda\sum^n_{i=1}(n-i+1)\)\(\displaystyle = \lambda(n^2 -\frac{1}{2}n(n+1) +n)\)
\(\displaystyle = \frac{1}{2}n(n+1)\lambda\)
\(V[W_n]\)
\(\displaystyle V[W_n] = V\left[\sum^n_{i=1}(n-i+1)X_i\right]\)\(\displaystyle = \sum^n_{i=1}(n-i+1)^2V\left[X_i\right]\)
\(\displaystyle = \lambda \sum^n_{i=1}(n-i+1)^2\)
ここで簡単にするために、\(j=n-i+1\)と変換すると、
\(\displaystyle = \lambda \sum^n_{j=1}j^2\)\(\displaystyle = \frac{1}{6}n(n+1)(2n+1)\lambda \)
[4]
\(\tilde{\lambda}\)
\(E[W_n]\)の式を\(\lambda =\)に変形することで\(\tilde{\lambda}\)を得る。
\(V[\tilde{\lambda}]\)
\(\displaystyle V[\tilde{\lambda}] = V\left[ \frac{2}{n(n+1)}W_n\right]\)
\(\displaystyle = \left(\frac{2}{n(n+1)}\right)^2 V\left[W_n\right]\)
\(\displaystyle = \left(\frac{2}{n(n+1)}\right)^2 \frac{1}{6}n(n+1)(2n+1)\lambda \)
\(\displaystyle = \frac{2(2n+1)}{3n(n+1)}\lambda \)
[5]
チェビシェフの不等式により、
\(P(|\tilde{\lambda}-\lambda| \geq \varepsilon) \displaystyle \leq \frac{V[\tilde{\lambda}]}{\varepsilon^2}\)
\( \displaystyle =\frac{2(2n+1)\lambda}{3n(n+1)\varepsilon^2}\overset{n \to \infty}{\longrightarrow}0\)
よって一致推定量。
一致推定量であることの証明については、以下の問題でも詳しく扱っています。
[6]
漸近相対効率という言葉は初めて聞きましたが、このようなことも問われるようになったんですねぇ。
解答の計算式を見るに、漸近相対効率とは「サンプルサイズ\(n\)を無限に大きくしたときの、2つの推定量の比率の値」のことのようです。
\(漸近相対効率 = \displaystyle \lim _{n \to \infty} \frac{V[推定量1]}{V[推定量2]}\)
これは比率なので、この値が\(1\)より小さい場合は、推定量1の方が分散が小さく有能な推定量だと判断でき、この値が\(1\)より大きい場合は、推定量2の方が分散が小さく有能な推定量だと判断するのに活用できそうです。
詳細な解答は公式の解答を参照。
コメント