標本リスク比・標本オッズ比の漸近分散

公開日: 更新日:

【2022年10月4週】 【A000】生物統計学 【A051】コホート研究 【A052】ケース・コントロール研究 【A071】標本分布

この記事をシェアする
  • B!
サムネイル画像

本稿では、標本リスク比・標本オッズ比の漸近分散の導出を行っています。実際にはそれぞれの漸近分散は対数変換したものの漸近分散を求めることが一般的であり、この式を使うことはありませんが、デルタ法の練習問題としては比較的難易度が低い問題です。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
  • 曝露(発症)状況を表す右下の添え字は、「0」である場合($n_0,\pi_0$ など)や「2」である場合($n_2,\pi_2$ など)がありますが、どちらも「非曝露群(コントロール群)」を表しています。
  • 漸近的な性質を用いる際は、①中心極限定理が成り立つ、②漸近分散を推定する際に、母数をその一致推定量で置き換えることができるということが成り立つと仮定しています。
  • デルタ法を用いる際、剰余項(2次の項)が漸近的に無視できる($0$に確率収束する)と仮定しています。

【定理】標本リスク比・標本オッズ比の漸近分散

【定理】
標本リスク比の漸近分散
Asymptotic Variance of Sample Risk Ratios

マッチングなしのコホート研究における標本発症リスク比の漸近分散は、 \begin{align} V \left(\mathrm{\widehat{RR}}\right)\cong{\mathrm{RR}}^2V \left(\log{\mathrm{\widehat{RR}}}\right) \end{align} で与えられる。

証明

証明

二項分布の正規近似により、標本比率は漸近的に \begin{gather} p_1 \sim N \left[\pi_1,\frac{\pi_1 \left(1-\pi_1\right)}{n_1}\right]\\ p_0 \sim N \left[\pi_0,\frac{\pi_0 \left(1-\pi_0\right)}{n_0}\right] \end{gather} 標本比率ベクトルを \begin{align} \boldsymbol{p}= \left(\begin{matrix}p_1\\p_0\\\end{matrix}\right) \end{align} 期待値ベクトルを \begin{align} \boldsymbol{\pi}= \left(\begin{matrix}\pi_1\\\pi_0\\\end{matrix}\right) \end{align} 分散・共分散行列を \begin{align} \boldsymbol{\Omega}= \left[\begin{matrix}\frac{\pi_1 \left(1-\pi_1\right)}{n_1}&0\\0&\frac{\pi_0 \left(1-\pi_0\right)}{n_0}\\\end{matrix}\right] \end{align} として、 \begin{gather} G \left(\boldsymbol{\pi}\right)=\mathrm{RR}=\frac{\pi_1}{\pi_0}\\ G \left(\boldsymbol{p}\right)=\mathrm{\widehat{RR}}=\frac{p_1}{p_0} \end{gather} と変数変換する。 多変量のデルタ法を用いて $G \left(\boldsymbol{p}\right)$ を期待値 $E \left(\boldsymbol{p}\right)=\boldsymbol{\pi}$ まわりでテイラー展開すると、偏導関数ベクトルは、 \begin{align} \boldsymbol{H} \left(\boldsymbol{\pi}\right)= \left(\begin{matrix}\frac{G \left(\boldsymbol{\pi}\right)}{\partial\pi_1}\\\frac{G \left(\boldsymbol{\pi}\right)}{\partial\pi_0}\\\end{matrix}\right)= \left[\begin{matrix}\frac{1}{\pi_0}\\-\frac{\pi_1}{\pi_0^2}\\\end{matrix}\right] \end{align} 多変量のデルタ法の期待値と分散の公式より、 \begin{align} E \left[G \left(\boldsymbol{p}\right)\right]\cong G \left(\boldsymbol{\pi}\right)=\frac{\pi_1}{\pi_0} \end{align} \begin{align} V \left[G \left(\boldsymbol{p}\right)\right]&= \left[\begin{matrix}\frac{1}{\pi_0}&-\frac{\pi_1}{{\pi_0}^2}\\\end{matrix}\right] \left[\begin{matrix}\frac{\pi_1 \left(1-\pi_1\right)}{n_1}&0\\0&\frac{\pi_0 \left(1-\pi_0\right)}{n_0}\\\end{matrix}\right] \left[\begin{matrix}\frac{1}{\pi_0}\\-\frac{\pi_1}{{\pi_0}^2}\\\end{matrix}\right]\\ &= \left[\begin{matrix}\frac{1}{\pi_0}&-\frac{\pi_1}{{\pi_0}^2}\\\end{matrix}\right] \left[\begin{matrix}\frac{\pi_1 \left(1-\pi_1\right)}{n_1\pi_0}\\-\frac{\pi_1 \left(1-\pi_0\right)}{n_0\pi_0}\\\end{matrix}\right]\\ &=\frac{1}{\pi_0}\frac{\pi_1 \left(1-\pi_1\right)}{n_1\pi_0}+\frac{\pi_1}{{\pi_0}^2}\frac{\pi_1 \left(1-\pi_0\right)}{n_0\pi_0}\\ &=\frac{\pi_1 \left(1-\pi_1\right)}{n_1\pi_0^2}+\frac{\pi_1^2 \left(1-\pi_0\right)}{n_2\pi_0^3} \end{align} いっぽう、 \begin{align} {\mathrm{RR}}^2V \left(\log{\mathrm{\widehat{RR}}}\right)&=\frac{\pi_1^2}{\pi_0^2} \left(\frac{1-\pi_1}{n_1\pi_1}+\frac{1-\pi_0}{n_0\pi_0}\right)\\ &=\frac{\pi_1 \left(1-\pi_1\right)}{n_1\pi_0^2}+\frac{\pi_1^2 \left(1-\pi_0\right)}{n_0\pi_0^3} \end{align} したがって、漸近的に \begin{align} V \left(\mathrm{\widehat{RR}}\right)\cong{\mathrm{RR}}^2V \left(\log{\mathrm{\widehat{RR}}}\right) \end{align} $\blacksquare$

【定理】標本オッズ比の漸近分散

【定理】
標本オッズ比の漸近分散
Asymptotic Variance of Sample Odds Ratios

マッチングなしのコホート研究における標本発症オッズ比の漸近分散は、 \begin{align} V \left(\mathrm{\widehat{OR}}\right)\cong{\mathrm{OR}}^2V \left(\log{\mathrm{\widehat{OR}}}\right) \end{align} で与えられる。

証明

証明

二項分布の正規近似により、標本比率は漸近的に \begin{gather} p_1 \sim N \left[\pi_1,\frac{\pi_1 \left(1-\pi_1\right)}{n_1}\right]\\ p_0 \sim N \left[\pi_0,\frac{\pi_0 \left(1-\pi_0\right)}{n_0}\right] \end{gather} 標本比率ベクトルを \begin{align} \boldsymbol{p}= \left(\begin{matrix}p_1\\p_0\\\end{matrix}\right) \end{align} 期待値ベクトルを \begin{align} \boldsymbol{\pi}= \left(\begin{matrix}\pi_1\\\pi_0\\\end{matrix}\right) \end{align} 分散・共分散行列を \begin{align} \boldsymbol{\Omega}= \left[\begin{matrix}\frac{\pi_1 \left(1-\pi_1\right)}{n_1}&0\\0&\frac{\pi_0 \left(1-\pi_0\right)}{n_0}\\\end{matrix}\right] \end{align} として、 \begin{gather} G \left(\boldsymbol{\pi}\right)=\mathrm{OR}=\frac{\pi_1}{1-\pi_1} \cdot \frac{1-\pi_0}{\pi_0}\\ G \left(\boldsymbol{p}\right)=\mathrm{\widehat{OR}}=\frac{p_1}{1-p_1} \cdot \frac{1-p_0}{p_0} \end{gather} と変数変換する。 多変量のデルタ法を用いて $G \left(\boldsymbol{p}\right)$ を期待値 $E \left(\boldsymbol{p}\right)=\boldsymbol{\pi}$ まわりでテイラー展開すると、偏導関数ベクトルは、 \begin{align} \boldsymbol{H} \left(\boldsymbol{\pi}\right)= \left(\begin{matrix}\frac{G \left(\boldsymbol{\pi}\right)}{\partial\pi_1}\\\frac{G \left(\boldsymbol{\pi}\right)}{\partial\pi_0}\\\end{matrix}\right)= \left[\begin{matrix}\frac{1-\pi_0}{\pi_0 \left(1-\pi_1\right)^2}\\-\frac{\pi_1}{\pi_0^2 \left(1-\pi_1\right)}\\\end{matrix}\right] \end{align} 多変量のデルタ法の期待値と分散の公式より、 \begin{align} E \left[G \left(\boldsymbol{p}\right)\right]\cong G \left(\boldsymbol{\pi}\right)=\frac{\pi_1}{1-\pi_1} \cdot \frac{1-\pi_0}{\pi_0} \end{align} \begin{align} V \left[G \left(\boldsymbol{p}\right)\right]&= \left[\begin{matrix}\frac{1-\pi_0}{\pi_0 \left(1-\pi_1\right)^2}&-\frac{\pi_1}{\pi_0^2 \left(1-\pi_1\right)}\\\end{matrix}\right] \left[\begin{matrix}\frac{\pi_1 \left(1-\pi_1\right)}{n_1}&0\\0&\frac{\pi_0 \left(1-\pi_0\right)}{n_0}\\\end{matrix}\right] \left[\begin{matrix}\frac{1-\pi_0}{\pi_0 \left(1-\pi_1\right)^2}\\-\frac{\pi_1}{\pi_0^2 \left(1-\pi_1\right)}\\\end{matrix}\right]\\ &= \left[\begin{matrix}\frac{1-\pi_0}{\pi_0 \left(1-\pi_1\right)^2}&-\frac{\pi_1}{\pi_0^2 \left(1-\pi_1\right)}\\\end{matrix}\right] \left[\begin{matrix}\frac{\pi_1 \left(1-\pi_0\right)}{n_1\pi_0 \left(1-\pi_1\right)}\\-\frac{\pi_1 \left(1-\pi_0\right)}{n_0\pi_0 \left(1-\pi_1\right)}\\\end{matrix}\right]\\ &=\frac{1-\pi_0}{\pi_0 \left(1-\pi_1\right)^2}\frac{\pi_1 \left(1-\pi_0\right)}{n_1\pi_0 \left(1-\pi_1\right)}+\frac{\pi_1}{\pi_0^2 \left(1-\pi_1\right)}\frac{\pi_1 \left(1-\pi_0\right)}{n_0\pi_0 \left(1-\pi_1\right)}\\ &=\frac{\pi_1 \left(1-\pi_0\right)^2}{n_1\pi_0^2 \left(1-\pi_1\right)^3}+\frac{\pi_1^2 \left(1-\pi_0\right)}{n_0\pi_0^3 \left(1-\pi_1\right)^2} \end{align} いっぽう、 \begin{align} {\mathrm{OR}}^2V \left(\log{\mathrm{\widehat{OR}}}\right)&=\frac{\pi_1^2}{ \left(1-\pi_1\right)^2} \cdot \frac{ \left(1-\pi_0\right)^2}{\pi_0^2} \left[\frac{1}{n_1\pi_1 \left(1-\pi_1\right)}+\frac{1}{n_0\pi_0 \left(1-\pi_0\right)}\right]\\ &=\frac{\pi_1 \left(1-\pi_0\right)^2}{n_1\pi_0^2 \left(1-\pi_1\right)^3}+\frac{\pi_1^2 \left(1-\pi_0\right)}{n_0\pi_0^3 \left(1-\pi_1\right)^2} \end{align} したがって、漸近的に \begin{align} V \left(\mathrm{\widehat{OR}}\right)\cong{\mathrm{OR}}^2V \left(\log{\mathrm{\widehat{OR}}}\right) \end{align} $\blacksquare$

参考文献

  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.81

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ