統計検定 1級 2023年 統計数理 問3 指数分布・モーメント母関数

公開日: 更新日:

【B000】数理統計学 【D000】統計検定 過去問

この記事をシェアする
  • B!
サムネイル画像

本稿には、2023年に実施された統計検定1級『統計数理』 問3の自作解答案を掲載しています。なお、閲覧にあたっては、以下の点にご注意ください。

  • 著作権の関係上、問題文は、掲載することができません。申し訳ありませんが、閲覧者のみなさまでご用意いただければ幸いです。
  • この答案は、あくまでも筆者が自作したものであり、公式なものではありません。正式な答案については、公式問題集をご参照ください。
  • 計算ミスや誤字・脱字などがありましたら、コメントなどでご指摘いただければ大変助かります。
  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。

〔1〕期待値

期待値の定義式 $E \left(X\right)=\int_{-\infty}^{\infty}{x \cdot f \left(x\right)dx}$ より、 \begin{align} E \left(X\right)&=\int_{-\infty}^{0}{x \cdot 0dx}+\int_{0}^{\infty}{x \cdot \lambda e^{-\lambda x}dx}\\ &=\int_{0}^{\infty}{x \cdot \lambda e^{-\lambda x}dx} \end{align} 部分積分法により、 \begin{align} \int_{0}^{\infty}{x \cdot \lambda e^{-\lambda x}dx}&= \left[-x \cdot e^{-\lambda x}\right]_0^\infty-\int_{0}^{\infty}{-e^{-\lambda x}dx}\\ &=-\lim_{x\rightarrow\infty}{x \cdot e^{-\lambda x}}+\int_{0}^{\infty}{e^{-\lambda x}dx} \end{align} ここで、ロピタルの定理より、 \begin{align} \lim_{x\rightarrow\infty}{xe^{-\lambda x}}=\lim_{x\rightarrow\infty}{\frac{x}{e^{\lambda x}}}=\lim_{x\rightarrow\infty}{\frac{1}{\lambda e^{\lambda x}}}=0 \end{align} したがって、 \begin{align} E \left(X\right)&=\int_{0}^{\infty}{e^{-\lambda x}dx}\\ &= \left[-\frac{1}{\lambda}e^{-\lambda x}\right]_0^\infty\\ &=-\frac{1}{\lambda} \left(\lim_{x\rightarrow\infty}{e^{-\lambda x}}-e^0\right)\\ &=-\frac{1}{\lambda} \left(0-1\right)\\ &=\frac{1}{\lambda} \end{align} $\blacksquare$

〔2〕モーメント母関数

モーメント母関数の定義式 $M_X \left(\theta\right)=\int_{x=-\infty}^{\infty}{e^{\theta x} \cdot f \left(x\right)dx}$ より、 \begin{align} M_X \left(t\right)&=\int_{-\infty}^{0}{e^{tx} \cdot 0 \cdot d x}+\int_{0}^{\infty}{e^{tx} \cdot \lambda e^{-\lambda x}dx}\\ &=\lambda\int_{0}^{\infty}{e^{tx-\lambda x}dx}\\ &=\lambda\int_{0}^{\infty}{e^{- \left(\lambda-t\right)x}dx}\\ &=-\lambda \cdot \frac{1}{\lambda-t} \left[e^{- \left(\lambda-t\right)x}\right]_0^\infty\\ &=-\lambda \cdot \frac{1}{\lambda-t} \left(\lim_{x\rightarrow\infty}{e^{- \left(\lambda-t\right)x}}-e^{-0}\right)\\ &=\frac{\lambda}{\lambda-t} \end{align} $\blacksquare$

〔3〕変数変換後の確率密度関数

問題文の定義より、 \begin{align} g \left(x\right)&=\frac{\lambda-h}{\lambda} \cdot e^{hx} \cdot \lambda e^{-\lambda x}\\ &= \left(\lambda-h\right)e^{- \left(\lambda-h\right)x} \end{align} これは、パラメーターが $\lambda-h$ の指数分布の確率密度関数であるから、$0 \lt h \lt \lambda$ の範囲において、〔1〕の結果より、 \begin{align} E \left(X_W\right)=\frac{1}{\lambda-h} \end{align} したがって、 \begin{gather} \lambda-h \lt \lambda\\ \Leftrightarrow\frac{1}{\lambda} \lt \frac{1}{\lambda-h}\\ \Leftrightarrow E \left(X\right) \lt E \left(X_W\right) \end{gather} $\blacksquare$

〔4〕正値を取る連続型確率変数のモーメント

$X_W$ のモーメント母関数について考えると、定義より、 \begin{align} M_{X_W} \left(t\right)&=\int_{0}^{\infty}{e^{tx} \cdot g \left(x\right)dx}\\ &=\frac{1}{M_X \left(h\right)}\int_{0}^{\infty}{e^{tx} \cdot e^{hx} \cdot f \left(x\right)dx}\\ &=\frac{1}{M_X \left(h\right)}\int_{0}^{\infty}{e^{ \left(t+h\right)x} \cdot f \left(x\right)dx}\\ &=\frac{M_X \left(t+h\right)}{M_X \left(h\right)} \end{align} 合成関数の微分法より、 \begin{align} M_{X_W}^{ \left(r\right)} \left(t\right)=\frac{M_X^{ \left(r\right)} \left(t+h\right)}{M_X \left(h\right)} \end{align} モーメント母関数とモーメントの関係 $E \left(X^r\right)=M_X^{ \left(r\right)} \left(0\right)$ より、 \begin{align} E \left(X^r\right)&=M_{X_W}^{ \left(r\right)} \left(0\right)\\ &=\frac{M_X^{ \left(r\right)} \left(h\right)}{M_X \left(h\right)} \end{align} $\blacksquare$

別解:地道な方法

指数関数のマクローリン展開 $e^{\theta X}=\sum_{k=0}^{\infty}{\frac{\theta^k}{k!}X^k}$ より、 \begin{align} e^{tX}=1+t \cdot X+\frac{t^2}{2!}X^2+\frac{t^3}{3!}X^3+ \cdots \end{align} 両辺の期待値を取ると、期待値の性質 $E \left(\sum_{i=1}^{n}{a_iX_i}+b\right)=\sum_{i=1}^{n}{a_iE \left(X_i\right)}+b$ より、 \begin{align} E \left(e^{tX}\right)&=E \left(1+t \cdot X+\frac{t^2}{2!}X^2+\frac{t^3}{3!}X^3+ \cdots \right)\\ &=E \left(1\right)+tE \left(X\right)+\frac{t^2}{2!}E \left(X^2\right)+\frac{t^3}{3!}E \left(X^3\right)+ \cdots \\ &=1+tE \left(X\right)+\frac{t^2}{2!}E \left(X^2\right)+\frac{t^3}{3!}E \left(X^3\right)+ \cdots \end{align} モーメント母関数の定義式 $M_X \left(\theta\right)=E \left(e^{\theta X}\right)$ より、 \begin{align} M_X \left(t\right)=1+tE \left(X\right)+\frac{t^2}{2!}E \left(X^2\right)+\frac{t^3}{3!}E \left(X^3\right)+ \cdots \tag{A} \end{align} 式 $(A)$ の両辺を $t$ で $r$ 回微分すると、 \begin{align} M_X^{ \left(r\right)} \left(t\right)=E \left(X^r\right)+tE \left(X^{r+1}\right)+ \cdots \tag{B} \end{align} ここで、確率変数 $X_W$ の確率密度関数は、問題文の定義より、 \begin{align} g \left(x\right)=\frac{f \left(x\right)}{M_X \left(h\right)} \cdot e^{hx} \end{align} 期待値の定義式 $E \left(X^r\right)=\int_{-\infty}^{\infty}{x^r \cdot f \left(x\right)dx}$ より、 \begin{align} E \left(X_W^r\right)&=\int_{0}^{\infty}{x^r \cdot g \left(x\right)dx}\\ &=\frac{1}{M_X \left(h\right)}\int_{0}^{\infty}{x^r \cdot f \left(x\right) \cdot e^{hx}dx}\\ &=\frac{1}{M_X \left(h\right)}\int_{0}^{\infty}{x^r \cdot f \left(x\right) \cdot \left(1+h \cdot x+\frac{h^2}{2!}x^2+\frac{h^3}{3!}x^3+ \cdots \right)dx}\\ &=\frac{1}{M_X \left(h\right)}\int_{0}^{\infty}f \left(x\right) \left(x^r+h \cdot x^{r+1}+ \cdots \right)dx\\ &=\frac{1}{M_X \left(h\right)} \left\{\int_{0}^{\infty}{x^r \cdot f \left(x\right)dx}+\int_{0}^{\infty}{h \cdot x^{r+1} \cdot f \left(x\right)dx}+ \cdots \right\}\\ &=\frac{1}{M_X \left(h\right)} \left\{E \left(X^r\right)+hE \left(X^{r+1}\right)+ \cdots \right\}\\ \end{align} これと、式 $(B)$ より、 \begin{align} E \left(X_W^r\right)=\frac{M_X^{ \left(r\right)} \left(h\right)}{M_X \left(h\right)} \end{align} $\blacksquare$

〔5〕期待値の大小関係

得られたモーメント母関数に $t=0$ を代入すると、モーメント母関数の性質より、 \begin{gather} M_X \left(0\right)=1\\ M_X^{ \left(1\right)} \left(0\right)=E \left(X\right) \end{gather} これと〔4〕の結果より、 \begin{align} E \left(X_W\right)=E \left(X\right) \end{align} ここで、分散の公式 $V \left(X\right)=E \left(X^2\right)- \left\{E \left(X\right)\right\}^2$ などにより、 \begin{align} E \left(X_W^2\right)&=\frac{M_X^{ \left(2\right)} \left(h\right)}{M_X \left(h\right)}\\ &=\frac{M_X^{ \left(2\right)} \left(h\right) \cdot M_X \left(h\right)}{ \left\{M_X \left(h\right)\right\}^2}\\ \left\{E \left(X_W\right)\right\}^2&=\frac{ \left\{M_X^{ \left(1\right)} \left(h\right)\right\}^2}{ \left\{M_X \left(h\right)\right\}^2}\\ V \left(X_W\right)&=E \left(X_W^2\right)- \left\{E \left(X_W\right)\right\}^2\\ \end{align} いっぽう、 \begin{align} a \left(h\right)=\frac{M_X^{ \left(1\right)} \left(h\right)}{M_X \left(h\right)} \end{align} とすると、 問題文の仮定により、任意の正の整数 $r$ に対し、$M_X^{ \left(r\right)} \left(h\right)$ が存在するので、$V \left(X_W\right)$ は存在し、 \begin{align} a^\prime \left(h\right)=\frac{M_X^{ \left(2\right)} \left(h\right) \cdot M_X \left(h\right)- \left\{M_X^{ \left(1\right)} \left(h\right)\right\}^2}{ \left\{M_X \left(h\right)\right\}^2}=V \left(X_W\right)\ge0 \end{align} したがって、関数 $a \left(h\right)$ は $h$ に対して単調増加な関数なので、 \begin{align} \begin{matrix}E \left(X_W\right) \le E \left(X\right)&h \lt 0\\E \left(X_W\right)=E \left(X\right)&h=0\\E \left(X\right) \le E \left(X_W\right)&0 \lt h\\\end{matrix} \end{align} $\blacksquare$

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

QooQ