統計検定 1級 2012年 統計数理 問3 指数分布の最尤推定

公開日: 更新日:

【2023年5月1週】 【B000】数理統計学 【D000】統計検定 過去問

この記事をシェアする
  • B!
サムネイル画像

本稿には、2012年に実施された統計検定1級『統計数理』 問3の自作解答案を掲載しています。なお、閲覧にあたっては、以下の点にご注意ください。

  • 著作権の関係上、問題文は、掲載することができません。申し訳ありませんが、閲覧者のみなさまでご用意いただければ幸いです。
  • この答案は、あくまでも筆者が自作したものであり、公式なものではありません。正式な答案については、公式問題集をご参照ください。
  • 計算ミスや誤字・脱字などがありましたら、コメントなどでご指摘いただければ大変助かります。
  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。

〔1〕標本平均の期待値と分散

指数分布の期待値と分散の公式より、 \begin{align} E(X)=\frac{1}{\lambda} \quad V \left(X\right)=\frac{1}{\lambda^2} \end{align} 期待値の性質 $E \left(\sum_{i=1}^{n}X_i\right)=\sum_{i=1}^{n}E \left(X_i\right),E \left(aX\right)=aE \left(X\right)$ より、 \begin{align} E \left(\bar{X}\right)&=E \left(\frac{1}{n}\sum_{i=1}^{n}X_i\right)\\ &=\frac{1}{n}\sum_{i=1}^{n}E \left(X_i\right)\\ &=\frac{1}{n} \cdot \frac{1}{\lambda} \cdot n\\ &=\frac{1}{\lambda} \end{align} 確率変数が互いに独立なとき、分散の性質 $V \left(\sum_{i=1}^{n}X_i\right)=\sum_{i=1}^{n}V \left(X_i\right),V \left(aX\right)=a^2V \left(X\right)$ より、 \begin{align} V \left(\bar{X}\right)&=V \left(\frac{1}{n}\sum_{i=1}^{n}X_i\right)\\ &=\frac{1}{n^2}\sum_{i=1}^{n}V \left(X_i\right)\\ &=\frac{1}{n^2} \cdot \frac{1}{\lambda^2} \cdot n\\ &=\frac{1}{n\lambda^2} \end{align} $\blacksquare$

〔2〕最尤推定量の導出

尤度関数 $L \left(\theta\right)$ を求めると、 \begin{align} L \left(\lambda\right)&=\prod_{i=1}^{n}{\lambda e^{-\lambda x_i}}\\ &=e^{-\lambda \left(x_1+x_2+ \cdots +x_n\right)} \cdot \lambda^n\\ &=e^{-\lambda\sum_{i=1}^{n}x_i} \cdot \lambda^n \end{align} 対数尤度関数 $l \left(\theta\right)=\log{L \left(\theta\right)}$ を求めると、 \begin{align} l \left(\lambda\right)&=\log{ \left(e^{-\lambda\sum_{i=1}^{n}x_i} \cdot \lambda^n\right)}\\ &=-\lambda\sum_{i=1}^{n}x_i+n\log{\lambda} \end{align} スコア関数 $S \left(\theta\right)=\frac{d}{d\theta}\log{L \left(\theta\right)}$ を求めると、 \begin{align} S \left(\lambda\right)=-\sum_{i=1}^{n}x_i+\frac{n}{\lambda} \end{align} 尤度方程式 $S \left(\theta\right)=0$ を解くと、 \begin{gather} 0=-\sum_{i=1}^{n}x_i+\frac{n}{\hat{\lambda}}\\ \hat{\lambda}\sum_{i=1}^{n}x_i=n\\ \hat{\lambda}=\frac{n}{\sum_{i=1}^{n}x_i}=\frac{1}{\bar{X}} \end{gather} $\blacksquare$

〔3〕フィッシャー情報量の導出

フィッシャー情報量の定義式 $I_1 \left(\theta\right)=E \left[ \left\{S \left(\theta\right)\right\}^2\right]$ より、 \begin{align} I_1 \left(\lambda\right)&=E \left[ \left(-x+\frac{1}{\lambda}\right)^2\right]\\ &=E \left(\frac{\lambda^2x^2-2\lambda x+1}{\lambda^2}\right)\\ &=\frac{1}{\lambda^2} \left\{\lambda^2E \left(X^2\right)-2\lambda E \left(X\right)+1\right\} \end{align} 分散の公式の変形 $E \left(X^2\right)=V \left(X\right)+ \left\{E \left(X\right)\right\}^2$ より、2次モーメントは、 \begin{align} E \left(X^2\right)&=\frac{1}{\lambda^2}+\frac{1}{\lambda^2}\\ &=\frac{2}{\lambda^2} \end{align} したがって、 \begin{align} I_1 \left(\lambda\right)&=\frac{1}{\lambda^2} \left(\lambda^2 \cdot \frac{2}{\lambda^2}-2\lambda \cdot \frac{1}{\lambda}+1\right)\\ &=\frac{1}{\lambda^2} \cdot 1\\ &=\frac{1}{\lambda^2} \end{align} フィッシャー情報量の性質 $I_n \left(\theta\right)=nI_1 \left(\theta\right)$ より、 \begin{align} I_n \left(\lambda\right)=\frac{n}{\lambda^2} \end{align} $\blacksquare$

〔4〕デルタ法による漸近分散の導出

〔2〕の結果より、 \begin{align} V \left(\hat{\lambda}\right)=V \left(\frac{1}{\bar{X}}\right) \end{align} ここで、 \begin{align} g \left(\bar{x}\right)=\frac{1}{\bar{x}} \end{align} とおき、 1階微分を求めると、商の微分公式より、 \begin{align} g^\prime \left(\bar{x}\right)=-\frac{1}{{\bar{x}}^2} \end{align} $g \left(\bar{x}\right)$ を期待値 $E \left(\bar{X}\right)=\frac{1}{\lambda}$ の周りで1次の項までテイラー展開すると、 \begin{align} \hat{\lambda}=g \left(\bar{x}\right)&\cong g \left(\frac{1}{\lambda}\right)+g^\prime \left(\frac{1}{\lambda}\right) \left(\bar{x}-\frac{1}{\lambda}\right)\\ &\cong\lambda-\lambda^2 \left(\bar{x}-\frac{1}{\lambda}\right) \end{align} 両辺の分散を取ると、 \begin{align} V \left(\hat{\lambda}\right)&=V \left\{\lambda-\lambda^2 \left(\bar{x}-\frac{1}{\lambda}\right)\right\}\\ &=V \left(-\lambda^2\bar{x}+2\lambda\right) \end{align} 分散の性質 $V \left(aX+b\right)=a^2V \left(X\right)$ より、 \begin{align} V \left(\hat{\lambda}\right)&=\lambda^4V \left(\bar{X}\right)\\ &=\lambda^4 \cdot \frac{1}{n\lambda^2}\\ &=\frac{\lambda^2}{n} \end{align} $\blacksquare$

補足

〔3〕の結果より、クラメール・ラオの下限 $V \left(\hat{\theta}\right) \geq \frac{1}{I_n \left(\theta\right)}$ を求めると、 \begin{align} V \left(\hat{\lambda}\right) \geq \frac{\lambda^2}{n} \end{align} これと〔4〕の結果より、指数分布の最尤推定量の漸近分散は、クラメール・ラオの下限に等しいことが分かり、最尤推定量が有効推定量であることが分かります。

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ