ジョン・ラチン(2020)『医薬データのための統計解析』 問題8.1 解答例

公開日: 更新日:

【2022年12月1週】 【A000】生物統計学 【A093】ポアソン回帰分析

この記事をシェアする
  • B!
サムネイル画像

本稿は、ジョン・ラチン(2020)『医薬データのための統計解析』の「問題8.1」の自作解答例です。粗率と加重最小二乗和の関係に関する問題です。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
  • 曝露(発症)状況を表す右下の添え字は、「0」である場合($n_0,\pi_0$ など)や「2」である場合($n_2,\pi_2$ など)がありますが、どちらも「非曝露群(コントロール群)」を表しています。
  • 漸近的な性質を用いる際は、①中心極限定理が成り立つ、②漸近分散を推定する際に、母数をその一致推定量で置き換えることができるということが成り立つと仮定しています。
  • デルタ法を用いる際、剰余項(2次の項)が漸近的に無視できる($0$に確率収束する)と仮定しています。
  • 上述の参考書では、標準正規分布の上側 $100\alpha\%$ 点を $Z_{1-\alpha}$ と表記していますが、本サイトでは、$Z_\alpha$ としています。そのため、参考書に載っている式の形式と異なる部分があります。
  • 著作権の関係上、問題文は、掲載しておりません。上述の参考書をお持ちの方は、お手元にご用意してご覧ください。
  • この解答例は、筆者が自作したものであり、公式なものではありません。あくまでも参考としてご覧いただければ幸いです。

問題8.1.1:粗率と加重最小2乗和の同等性

2重同次ポアソンモデルの仮定より、 \begin{align} E \left(d_j\right)=V \left(d_j\right)=\lambda t_j \end{align} 各被験者の率の定義より、 \begin{align} r_j=\frac{d_j}{t_j} \end{align} 両辺の期待値を取ると、 \begin{align} E \left(r_j\right)&=E \left(\frac{d_j}{t_j}\right)\\ &=\frac{1}{t_j}E \left(d_j\right)\\ &=\frac{1}{t_j} \cdot \lambda t_j\\ &=\lambda \end{align} 両辺の分散を取ると、 \begin{align} V \left(r_j\right)&=V \left(\frac{d_j}{t_j}\right)\\ &=\frac{1}{t_j^2}V \left(d_j\right)\\ &=\frac{\lambda t_j}{t_j^2}\\ &=\frac{\lambda}{t_j} \end{align} 率の分散の最尤推定量は、 \begin{align} \hat{V} \left(r_j\right)=\frac{\hat{\lambda}}{t_j} \end{align} 問題文の定義より、 \begin{align} {\hat{\tau}}_j=\frac{1}{\hat{V} \left(r_j\right)}=\frac{t_j}{\hat{\lambda}} \end{align} 同様に、加重最小2乗和の定義より、 \begin{align} \bar{r}&=\frac{\sum_{i=1}^{N}{{\hat{\tau}}_jr_j}}{\sum_{i=1}^{N}{\hat{\tau}}_j}\\ &=\frac{\sum_{i=1}^{N}{\frac{t_j}{\hat{\lambda}}r_j}}{\sum_{i=1}^{N}\frac{t_j}{\hat{\lambda}}}\\ &=\frac{\sum_{i=1}^{N}{t_jr_j}}{\sum_{i=1}^{N}t_j}\\ &=\frac{\sum_{i=1}^{N}{t_j\frac{d_j}{t_j}}}{\sum_{i=1}^{N}t_j}\\ &=\frac{\sum_{i=1}^{N}d_j}{\sum_{i=1}^{N}t_j}\\ &=\frac{d_{\bullet }}{t_{\bullet }}\\ &=\hat{\lambda} \end{align} $\blacksquare$

問題8.1.2:加重最小2乗和の最尤推定分散

まず、 \begin{align} \sum_{i=1}^{N}{\hat{\tau}}_j&=\sum_{i=1}^{N}\frac{t_j}{\hat{\lambda}}\\ &=\frac{1}{\hat{\lambda}}\sum_{i=1}^{N}t_j\\ &=\frac{t_{\bullet }}{\hat{\lambda}}\\ \frac{1}{\sum_{i=1}^{N}{\hat{\tau}}_j}&=\frac{\hat{\lambda}}{t_{\bullet }}\\ &=\hat{V} \left(\hat{\lambda}\right) \end{align} 加重最小2乗和の分散を取ると、 \begin{align} \hat{V} \left(\bar{r}\right)&=V \left(\frac{\sum_{i=1}^{N}{{\hat{\tau}}_jr_j}}{\sum_{i=1}^{N}{\hat{\tau}}_j}\right)\\ &= \left(\frac{1}{\sum_{i=1}^{N}{\hat{\tau}}_j}\right)^2V \left(\sum_{i=1}^{N}{{\hat{\tau}}_jr_j}\right)\\ &=\frac{{\hat{\lambda}}^2}{t_{\bullet }^2} \cdot V \left(\sum_{i=1}^{N}{\frac{t_j}{\hat{\lambda}} \cdot \frac{d_j}{t_j}}\right)\\ &=\frac{{\hat{\lambda}}^2}{t_{\bullet }^2} \cdot V \left(\sum_{i=1}^{N}\frac{d_j}{\hat{\lambda}}\right)\\ &=\frac{{\hat{\lambda}}^2}{t_{\bullet }^2} \cdot \frac{1}{{\hat{\lambda}}^2}\sum_{i=1}^{N}{\hat{V} \left(d_j\right)}\\ &=\frac{1}{t_{\bullet }^2}\sum_{i=1}^{N}{\hat{\lambda}t_j}\\ &=\frac{\hat{\lambda} \cdot t_{\bullet }}{t_{\bullet }^2}\\ &=\frac{\hat{\lambda}}{t_{\bullet }}\\ &=\frac{1}{\sum_{i=1}^{N}{\hat{\tau}}_j}\\ \end{align} $\blacksquare$

参考文献

  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.451
  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.412-414

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ