ジョン・ラチン(2020)『医薬データのための統計解析』 問題6.1 解答例

公開日: 更新日:

【2022年11月3週】 【A000】生物統計学 【A072】統計的推定

この記事をシェアする
  • B!
サムネイル画像

本稿は、ジョン・ラチン(2020)『医薬データのための統計解析』の「問題6.1」の自作解答例です。二項分布の最尤推定に関する問題です。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
  • 曝露(発症)状況を表す右下の添え字は、「0」である場合($n_0,\pi_0$ など)や「2」である場合($n_2,\pi_2$ など)がありますが、どちらも「非曝露群(コントロール群)」を表しています。
  • 漸近的な性質を用いる際は、①中心極限定理が成り立つ、②漸近分散を推定する際に、母数をその一致推定量で置き換えることができるということが成り立つと仮定しています。
  • デルタ法を用いる際、剰余項(2次の項)が漸近的に無視できる($0$に確率収束する)と仮定しています。
  • 著作権の関係上、問題文は、掲載しておりません。上述の参考書をお持ちの方は、お手元にご用意してご覧ください。
  • この解答例は、筆者が自作したものであり、公式なものではありません。あくまでも参考としてご覧いただければ幸いです。

問題6.1.1:二項分布のスコア関数

対数尤度関数 $l \left(\theta,\boldsymbol{x}\right)=\log{L \left(\theta,\boldsymbol{x}\right)}$ を求めると、 \begin{align} l \left(\pi\right)&=\log{ \left[{}_{N}C_x\pi^x \left(1-\pi\right)^{N-x}\right]}\\ &=\log{{}_{N}C_x}+x\log{\pi}+ \left(N-x\right)\log{ \left(1-\pi\right)} \end{align} スコア関数 $U \left(\theta\right)=\frac{d}{d\theta}l \left(\theta,\boldsymbol{x}\right)$ を求めると、 \begin{align} U \left(\pi\right)&=\frac{x}{\pi}+\frac{N-x}{1-\pi} \cdot \left(-1\right)\\ &=\frac{x}{\pi}-\frac{N-x}{1-\pi}\\ &=\frac{x-N\pi}{\pi \left(1-\pi\right)} \end{align} $\blacksquare$

問題6.1.2:二項分布の最尤推定量

最尤推定量 $U \left(\hat{\theta}\right)=0$ を求めると、 \begin{gather} U \left(\hat{\pi}\right)=\frac{x-N\hat{\pi}}{\hat{\pi} \left(1-\hat{\pi}\right)}=0\\ x-N\hat{\pi}=0\\ \hat{\pi}=\frac{x}{N} \end{gather} $\blacksquare$

問題6.1.3:二項分布の期待情報量

観測情報量 $i \left(\theta\right)=-\frac{d}{d\theta}U \left(\theta\right)$ を求めると、 \begin{align} i \left(\pi\right)&=- \left\{-\frac{x}{\pi^2}+\frac{N-x}{ \left(1-\pi\right)^2} \cdot \left(-1\right)\right\}\\ &=\frac{x}{\pi^2}+\frac{N-x}{ \left(1-\pi\right)^2} \end{align} 二項分布の期待値の公式より、 \begin{align} E \left(X\right)=n\pi \end{align} 期待情報量の定義式 $I \left(\theta\right)=-E \left[i \left(\theta\right)\right]$ より、 \begin{align} I \left(\pi\right)&=\frac{E \left(X\right)}{\pi^2}+\frac{N-E \left(X\right)}{ \left(1-\pi\right)^2}\\ &=\frac{N\pi}{\pi^2}+\frac{N-N\pi}{ \left(1-\pi\right)^2}\\ &=\frac{N}{\pi \left(1-\pi\right)} \end{align} $\blacksquare$

問題6.1.4:二項分布の観測情報量と期待情報量の同等性

最尤推定された期待情報量は、$\pi=\hat{\pi}$ を代入して、 \begin{align} I \left(\hat{\pi}\right)=\frac{N}{\hat{\pi} \left(1-\hat{\pi}\right)} \end{align} いっぽう、最尤推定された観測情報量は、$\pi=\hat{\pi}$ を代入して、 \begin{align} i \left(\hat{\pi}\right)&=\frac{x}{{\hat{\pi}}^2}+\frac{N-x}{ \left(1-\hat{\pi}\right)^2}\\ &=\frac{x \left(1-\hat{\pi}\right)^2+{\hat{\pi}}^2 \left(N-x\right)}{{\hat{\pi}}^2 \left(1-\hat{\pi}\right)^2}\\ &=\frac{x-2\hat{\pi}x+{\hat{\pi}}^2x+{\hat{\pi}}^2N-{\hat{\pi}}^2x}{{\hat{\pi}}^2 \left(1-\hat{\pi}\right)^2}\\ &=\frac{x-2\hat{\pi}x+{\hat{\pi}}^2N}{{\hat{\pi}}^2 \left(1-\hat{\pi}\right)^2} \end{align} $x=N\hat{\pi}$ より、 \begin{align} i \left(\hat{\pi}\right)&=\frac{\hat{\pi}N-2{\hat{\pi}}^2N+{\hat{\pi}}^2N}{{\hat{\pi}}^2 \left(1-\hat{\pi}\right)^2}\\ &=\frac{\hat{\pi}N-{\hat{\pi}}^2N}{{\hat{\pi}}^2 \left(1-\hat{\pi}\right)^2}\\ &=\frac{\hat{\pi}N \left(1-\hat{\pi}\right)}{{\hat{\pi}}^2 \left(1-\hat{\pi}\right)^2}\\ &=\frac{N}{\hat{\pi} \left(1-\hat{\pi}\right)} \end{align} したがって、 \begin{align} i \left(\hat{\pi}\right)=I \left(\hat{\pi}\right) \end{align} $\blacksquare$

問題6.1.5:二項分布の漸近分散の最尤推定量

クラメール・ラオの下限 $V \left(\hat{\theta}\right) \geq \frac{1}{I \left(\hat{\theta}\right)}$ より、最尤推定量の漸近分散は \begin{align} V \left(\hat{\pi}\right)=\frac{\pi \left(1-\pi\right)}{N} \end{align} また、最尤推定量の漸近分散の一致推定量は、$\pi=\hat{\pi}$ を代入して、 \begin{align} \hat{V} \left(\hat{\pi}\right)&=\frac{\hat{\pi} \left(1-\hat{\pi}\right)}{N}\\ &=\frac{p \left(1-p\right)}{N} \end{align} $\blacksquare$

参考文献

  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.295
  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.265-267

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ