ジョン・ラチン(2020)『医薬データのための統計解析』 問題6.2 解答例

公開日: 更新日:

【2022年11月3週】 【A000】生物統計学 【A092】ロジスティック回帰分析

この記事をシェアする
  • B!
サムネイル画像

本稿は、ジョン・ラチン(2020)『医薬データのための統計解析』の「問題6.2」の自作解答例です。ロジスティック・モデルによる対数オッズ比の最尤推定(積二項分布モデル)に関する問題です。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
  • 曝露(発症)状況を表す右下の添え字は、「0」である場合($n_0,\pi_0$ など)や「2」である場合($n_2,\pi_2$ など)がありますが、どちらも「非曝露群(コントロール群)」を表しています。
  • 漸近的な性質を用いる際は、①中心極限定理が成り立つ、②漸近分散を推定する際に、母数をその一致推定量で置き換えることができるということが成り立つと仮定しています。
  • デルタ法を用いる際、剰余項(2次の項)が漸近的に無視できる($0$に確率収束する)と仮定しています。
  • 著作権の関係上、問題文は、掲載しておりません。上述の参考書をお持ちの方は、お手元にご用意してご覧ください。
  • この解答例は、筆者が自作したものであり、公式なものではありません。あくまでも参考としてご覧いただければ幸いです。

問題6.2.1:尤度・対数尤度

積二項尤度の基本式より、 \begin{align} L \left(\pi_1,\pi_2\right)={}_{n_1}C_a\pi_1^a \left(1-\pi_1\right)^{n_1-a} \cdot {}_{n_2}C_b\pi_2^b \left(1-\pi_2\right)^{n_2-b} \end{align} 対数尤度関数の定義式 $l \left(\theta,\boldsymbol{x}\right)=\log{L \left(\theta,\boldsymbol{x}\right)}$ より、 \begin{align} l \left(\pi_1,\pi_2\right)&=\log{ \left[{}_{n_1}C_a\pi_1^a \left(1-\pi_1\right)^{n_1-a} \cdot {}_{n_2}C_b\pi_2^b \left(1-\pi_2\right)^{n_2-b}\right]}\\ &=\log{{}_{n_1}C_a}+a\log{\pi_1}+ \left(n_1-a\right)\log{ \left(1-\pi_1\right)}+\log{{}_{n_2}C_b}+b\log{\pi_2}+ \left(n_2-b\right)\log{ \left(1-\pi_2\right)} \end{align} $\log{{}_{n_1}C_a}+\log{{}_{n_2}C_b}=C$ とすると、$n_1-a=c,n_2-b=d$ より、 \begin{align} l \left(\pi_1,\pi_2\right)=a\log{\pi_1}+c\log{ \left(1-\pi_1\right)}+b\log{\pi_2}+d\log{ \left(1-\pi_2\right)}+C \end{align} $\blacksquare$

問題6.2.2:スコア関数①

対数尤度をパラメータ $\alpha,\beta$ およびの周辺度数 $n_1,n_2,m_1,m_2$ で表すと、 \begin{align} l \left(\pi_1,\pi_2\right)&=a\log{ \left(\frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}\right)}+c\log{ \left(\frac{1}{1+e^{\alpha+\beta}}\right)}+b\log{ \left(\frac{e^\alpha}{1+e^\alpha}\right)}+d\log{ \left(\frac{1}{1+e^\alpha}\right)}+C\\ &=a\log{ \left(e^{\alpha+\beta}\right)}-a\log{ \left(1+e^{\alpha+\beta}\right)}-c\log{ \left(1+e^{\alpha+\beta}\right)}+b\log{ \left(e^\alpha\right)}-b\log{ \left(1+e^\alpha\right)}-d\log{ \left(1+e^\alpha\right)}+C\\ &=a\log{ \left(e^{\alpha+\beta}\right)}- \left(a+c\right)\log{ \left(1+e^{\alpha+\beta}\right)}+b\log{ \left(e^\alpha\right)}- \left(b+d\right)\log{ \left(1+e^\alpha\right)}+C \end{align} 各セル度数どうしの関係より、 \begin{gather} a+c=n_1\\ b+d=n_2\\ a+b=m_1 \end{gather} よって、 \begin{align} l \left(\pi_1,\pi_2\right)&=a \left(\alpha+\beta\right)-n_1\log{ \left(1+e^{\alpha+\beta}\right)}+b\alpha-n_2\log{ \left(1+e^\alpha\right)}+C\\ &= \left(a+b\right)\alpha+a\beta-n_1\log{ \left(1+e^{\alpha+\beta}\right)}-n_2\log{ \left(1+e^\alpha\right)}+C\\ &=m_1\alpha+a\beta-n_1\log{ \left(1+e^{\alpha+\beta}\right)}-n_2\log{ \left(1+e^\alpha\right)}+C \end{align} この対数尤度関数を $\alpha$ で偏微分すると、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)=m_1-n_1 \cdot \frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}-n_2 \cdot \frac{e^\alpha}{1+e^\alpha} \end{align} ロジスティック・モデルの仮定より、 \begin{align} \pi_1=\frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}} \quad \pi_2=\frac{e^\alpha}{1+e^\alpha} \end{align} よって、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)=m_1-n_1\pi_1-n_2\pi_2 \end{align} $\blacksquare$

問題6.2.3:スコア関数②

同様に、対数尤度関数を $\beta$ で偏微分すると、 \begin{align} U_\beta \left(\boldsymbol{\theta}\right)&=a-n_1 \cdot \frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}\\ &=a-n_1\pi_1 \end{align} $\blacksquare$

問題6.2.4:連鎖律によるスコア方程式の導出

尤度方程式は、連鎖律(多変数関数の合成関数の微分)を用いても得られる。
連鎖律の定義式は、 \begin{align} \frac{\partial f \left(x,y\right)}{\partial x}&=\frac{\partial f \left(x,y\right)}{\partial u} \cdot \frac{\partial u}{\partial x}+\frac{\partial f \left(x,y\right)}{\partial v} \cdot \frac{\partial v}{\partial x},\frac{\partial f \left(x,y\right)}{\partial y}\\ &=\frac{\partial f \left(x,y\right)}{\partial u} \cdot \frac{\partial u}{\partial y}+\frac{\partial f \left(x,y\right)}{\partial v} \cdot \frac{\partial v}{\partial y} \end{align} よって、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)=\frac{\partial l}{\partial\pi_1}\frac{\partial\pi_1}{\partial\alpha}+\frac{\partial l}{\partial\pi_2}\frac{\partial\pi_2}{\partial\alpha} \end{align} ここで、 \begin{gather} \frac{\partial}{\partial\pi_1}l \left(\boldsymbol{\theta}\right)=\frac{a}{\pi_1}-\frac{c}{1-\pi_1}\\ \frac{\partial}{\partial\pi_2}l \left(\boldsymbol{\theta}\right)=\frac{b}{\pi_2}-\frac{d}{1-\pi_2}\\ \frac{\partial\pi_1}{\partial\alpha}=\frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}=\pi_1 \left(1-\pi_1\right)\\ \frac{\partial\pi_2}{\partial\alpha}=\frac{e^\alpha}{ \left(1+e^\alpha\right)^2}=\pi_2 \left(1-\pi_2\right) \end{gather} よって、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)&= \left\{\frac{a}{\pi_1}-\frac{c}{1-\pi_1}\right\}\pi_1 \left(1-\pi_1\right)+ \left\{\frac{b}{\pi_2}-\frac{d}{1-\pi_2}\right\}\pi_2 \left(1-\pi_2\right)\\ &=a \left(1-\pi_1\right)-c\pi_1+b \left(1-\pi_2\right)-d\pi_2\\ &=a+b- \left(a+c\right)\pi_1- \left(b+d\right)\pi_2\\ &=m_1-n_1\pi_1-n_2\pi_2 \end{align} 同様に、 \begin{gather} U_\beta \left(\boldsymbol{\theta}\right)=\frac{\partial l}{\partial\pi_1}\frac{\partial\pi_1}{\partial\beta}\\ \frac{\partial}{\partial\pi_1}l \left(\boldsymbol{\theta}\right)=\frac{a}{\pi_1}-\frac{c}{1-\pi_1}\\ \frac{\partial\pi_1}{\partial\beta}=\frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}=\pi_1 \left(1-\pi_1\right) \end{gather} よって、 \begin{align} U_\beta \left(\boldsymbol{\theta}\right)&= \left\{\frac{a}{\pi_1}-\frac{c}{1-\pi_1}\right\}\pi_1 \left(1-\pi_1\right)\\ &=a \left(1-\pi_1\right)-c\pi_1\\ &=a-n_1\pi_1 \end{align} $\blacksquare$

問題6.2.5:ヘッセ行列

ヘッセ行列の成分の定義より、 \begin{align} H_\alpha \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\alpha^2}l \left(\boldsymbol{\theta}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}-n_2 \cdot \frac{e^\alpha}{ \left(1+e^\alpha\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right)-n_2\pi_2 \left(1-\pi_2\right) \end{align} \begin{align} H_\beta \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\beta^2}l \left(\boldsymbol{\theta}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right) \end{align} \begin{align} H_{\alpha\beta} \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\alpha\partial\beta}l \left(\boldsymbol{\theta}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right) \end{align} 観測情報行列の定義 $\boldsymbol{i} \left(\boldsymbol{\theta}\right)=-\boldsymbol{H} \left(\boldsymbol{\theta}\right)$ と二項分布における期待情報行列との関係 $\boldsymbol{i} \left(\boldsymbol{\theta}\right)=\boldsymbol{I} \left(\boldsymbol{\theta}\right)$ から \begin{align} \boldsymbol{I} \left(\boldsymbol{\theta}\right)&=\boldsymbol{i} \left(\boldsymbol{\theta}\right)\\ &=- \left[\begin{matrix}H_\alpha \left(\boldsymbol{\theta}\right)&H_{\alpha\beta} \left(\boldsymbol{\theta}\right)\\H_{\alpha\beta} \left(\boldsymbol{\theta}\right)&H_\beta \left(\boldsymbol{\theta}\right)\\\end{matrix}\right]\\ &= \left[\begin{matrix}n_1\pi_1 \left(1-\pi_1\right)+n_2\pi_2 \left(1-\pi_2\right)&n_1\pi_1 \left(1-\pi_1\right)\\n_1\pi_1 \left(1-\pi_1\right)&n_1\pi_1 \left(1-\pi_1\right)\\\end{matrix}\right] \end{align} [別解]ヘッセ行列の各要素、連鎖律(多変数関数の合成関数の微分)を用いても得られる。
\begin{align} H_\beta \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\beta^2}l \left(\boldsymbol{\theta}\right)\\ &=\frac{\partial}{\partial\beta}U_\beta \left(\boldsymbol{\theta}\right)\\ &=\frac{\partial}{\partial\beta} \left(\frac{\partial l}{\partial\pi_1}\frac{\partial\pi_1}{\partial\beta}\right)\\ &=\frac{\partial}{\partial\beta} \left(a-n_1\frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right) \end{align} \begin{align} H_\alpha \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\alpha^2}l \left(\boldsymbol{\theta}\right)\\ &=\frac{\partial}{\partial\alpha}U_\alpha \left(\boldsymbol{\theta}\right)\\ &=\frac{\partial}{\partial\alpha} \left(\frac{\partial l}{\partial\pi_1}\frac{\partial\pi_1}{\partial\alpha}+\frac{\partial l}{\partial\pi_2}\frac{\partial\pi_2}{\partial\alpha}\right)\\ &=\frac{\partial}{\partial\alpha} \left(m_1-n_1\frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}-n_2\frac{e^\alpha}{1+e^\alpha}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}-n_2 \cdot \frac{e^\alpha}{ \left(1+e^\alpha\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right)-n_2\pi_2 \left(1-\pi_2\right) \end{align} \begin{align} H_{\alpha\beta} \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\alpha\partial\beta}l \left(\boldsymbol{\theta}\right)\\ &=\frac{\partial}{\partial\alpha}U_\beta \left(\boldsymbol{\theta}\right)\\ &=\frac{\partial}{\partial\alpha} \left(\frac{\partial l}{\partial\pi_1}\frac{\partial\pi_1}{\partial\beta}\right)\\ &=\frac{\partial}{\partial\alpha} \left(a-n_1\frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right) \end{align} $\blacksquare$

問題6.2.6:最尤推定量

最尤推定量 $U \left(\hat{\theta}\right)=0$ を求めると、 \begin{gather} U_\alpha \left(\hat{\alpha},\hat{\beta}\right)=m_1-n_1\pi_1-n_2\pi_2=0\tag{1}\\ U_\beta \left(\hat{\alpha},\hat{\beta}\right)=a-n_1\pi_1=0\tag{2} \end{gather} この連立方程式を解くと、 \begin{align} \pi_2&=\frac{m_1-a}{n_2}\\ &=\frac{b}{n_2}\\ \frac{e^{\hat{\alpha}}}{1+e^{\hat{\alpha}}}&=\frac{b}{n_2}\\ e^{\hat{\alpha}}&=\frac{b}{n_2-b}\\ &=\frac{b}{d}\\ \hat{\alpha}&=\log{\frac{b}{d}} \end{align} この結果と式 $(2)$ より、 \begin{gather} a-n_1 \cdot \frac{e^{\hat{\alpha}+\hat{\beta}}}{1+e^{\hat{\alpha}+\hat{\beta}}}=0 \end{gather} これを $\hat{\beta}$ について解くと、 \begin{gather} \left(1+e^{\hat{\alpha}+\hat{\beta}}\right)a-n_1 \cdot e^{\hat{\alpha}+\hat{\beta}}=0\\ a+a \cdot e^{\hat{\alpha}+\hat{\beta}}-n_1 \cdot e^{\hat{\alpha}+\hat{\beta}}=0\\ a+ \left(a-n_1\right) \cdot e^{\hat{\alpha}} \cdot e^{\hat{\beta}}=0\\ a-c \cdot \frac{b}{d} \cdot e^{\hat{\beta}}=0\\ e^{\hat{\beta}}=\frac{ad}{bc}\\ \hat{\beta}=\log{\frac{ad}{bc}} \end{gather} $\blacksquare$

問題6.2.7:スコア方程式

得られた最尤推定量より、 \begin{gather} \hat{\alpha}=\log{\frac{b}{d}} \quad \hat{\beta}=\log{\frac{ad}{bc}}\\ e^{\hat{\alpha}}=\frac{b}{d} \quad e^{\hat{\alpha}+\hat{\beta}}=\frac{a}{c}\\ \pi_1=\frac{\frac{a}{c}}{1+\frac{a}{c}}=\frac{a}{c+a}=\frac{a}{n_1}\\ \pi_2=\frac{\frac{b}{d}}{1+\frac{b}{d}}=\frac{b}{d+b}=\frac{b}{n_2} \end{gather} これらをスコア方程式に代入すると、 \begin{align} U_\beta \left(\boldsymbol{\theta}\right)&=a-n_1\pi_1\\ &=a-n_1 \cdot \frac{a}{n_1}\\ &=a-a\\ &=0\\ U_\alpha \left(\boldsymbol{\theta}\right)&=m_1-n_1\pi_1-n_2\pi_2\\ &=m_1-n_1 \cdot \frac{a}{n_1}-n_2 \cdot \frac{b}{n_2}\\ &=m_1-a-b\\ &=0 \end{align} $\blacksquare$

問題6.2.8:期待情報行列

期待情報行列の成分は、 \begin{align} \boldsymbol{I} \left(\boldsymbol{\theta}\right)= \left[\begin{matrix}\boldsymbol{I}_\alpha \left(\boldsymbol{\theta}\right)&\boldsymbol{I}_{\alpha\beta} \left(\boldsymbol{\theta}\right)\\\boldsymbol{I}_{\alpha\beta} \left(\boldsymbol{\theta}\right)^T&\boldsymbol{I}_\beta \left(\boldsymbol{\theta}\right)\\\end{matrix}\right] \end{align} このとき、推定量の共分散行列は、$\boldsymbol{V} \left(\hat{\boldsymbol{\theta}}\right)={\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}$ となる。期待情報行列の逆行列は、 \begin{align} {\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}=\frac{\boldsymbol{1}}{ \left|\boldsymbol{I} \left(\boldsymbol{\theta}\right)\right|} \left[\begin{matrix}\boldsymbol{I}_\beta \left(\boldsymbol{\theta}\right)&-\boldsymbol{I}_{\alpha\beta} \left(\boldsymbol{\theta}\right)^T\\-\boldsymbol{I}_{\alpha\beta} \left(\boldsymbol{\theta}\right)&\boldsymbol{I}_\alpha \left(\boldsymbol{\theta}\right)\\\end{matrix}\right] \end{align} 2×2行列の行列式の公式 $ \left|\boldsymbol{A}\right|=a_{11}a_{22}-a_{12}a_{21}$ より、 \begin{align} \left|\boldsymbol{I} \left(\boldsymbol{\theta}\right)\right|&= \left\{n_1\pi_1 \left(1-\pi_1\right)+n_2\pi_2 \left(1-\pi_2\right)\right\}n_1\pi_1 \left(1-\pi_1\right)- \left\{n_1\pi_1 \left(1-\pi_1\right)\right\}^2\\ &= \left\{n_1\pi_1 \left(1-\pi_1\right)+n_2\pi_2 \left(1-\pi_2\right)-n_1\pi_1 \left(1-\pi_1\right)\right\}n_1\pi_1 \left(1-\pi_1\right)\\ &=n_1\pi_1 \left(1-\pi_1\right)n_2\pi_2 \left(1-\pi_2\right) \end{align} $\pi_1 \left(1-\pi_1\right)=\psi_1,\pi_2 \left(1-\pi_2\right)=\psi_2$ とすると、 \begin{align} \left|\boldsymbol{I} \left(\boldsymbol{\theta}\right)\right|=n_1\psi_1n_2\psi_2 \end{align} したがって、 \begin{align} {\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}&=\frac{1}{n_1\psi_1n_2\psi_2} \left[\begin{matrix}n_1\psi_1&-n_1\psi_1\\-n_1\psi_1&n_1\psi_1+n_2\psi_2\\\end{matrix}\right]\\ &= \left[\begin{matrix}\frac{1}{n_2\psi_2}&-\frac{1}{n_2\psi_2}\\-\frac{1}{n_2\psi_2}&\frac{n_1\psi_1+n_2\psi_2}{n_1\psi_1n_2\psi_2}\\\end{matrix}\right] \end{align} $\blacksquare$

問題6.2.9:漸近分散・共分散行列

別な表現として、 \begin{align} {\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}= \left[\begin{matrix} \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\alpha}& \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_{\boldsymbol{\alpha},\boldsymbol{\beta}}\\ \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_{\boldsymbol{\alpha},\boldsymbol{\beta}}^T& \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\beta}\\\end{matrix}\right] \end{align} したがって、推定量の共分散行列は、 \begin{align} V \left(\hat{\alpha}\right)&= \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\alpha}\\ &=\frac{1}{n_2\pi_2 \left(1-\pi_2\right)}\\ V \left(\hat{\beta}\right)&= \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\beta}\\ &=\frac{n_1\pi_1 \left(1-\pi_1\right)+n_2\pi_2 \left(1-\pi_2\right)}{n_1\pi_1 \left(1-\pi_1\right)n_2\pi_2 \left(1-\pi_2\right)}\\ &=\frac{1}{n_1\pi_1 \left(1-\pi_1\right)}+\frac{1}{n_2\pi_2 \left(1-\pi_2\right)}\\ \mathrm{Cov} \left(\hat{\alpha},\hat{\beta}\right)&= \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_{\boldsymbol{\alpha},\boldsymbol{\beta}}\\ &=-\frac{1}{n_2\pi_2 \left(1-\pi_2\right)} \end{align} $\blacksquare$

問題6.2.10:標本対数オッズ比の漸近分散

推定量の共分散行列に、ロジスティック・モデルの各値を代入すると、 \begin{align} V \left(\hat{\beta}\right)&=\frac{1}{n_1 \cdot \frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}} \cdot \frac{1}{1+e^{\alpha+\beta}}}+\frac{1}{n_2 \cdot \frac{e^\alpha}{1+e^\alpha} \cdot \frac{1}{1+e^\alpha}}\\ &=\frac{ \left(1+e^{\alpha+\beta}\right)^2}{n_1e^{\alpha+\beta}}+\frac{ \left(1+e^\alpha\right)^2}{n_2e^\alpha} \end{align} この最尤推定量は、$\alpha=\hat{\alpha},\beta=\hat{\beta}$ を代入して、 \begin{align} \hat{V} \left(\hat{\beta}\right)&=\frac{ \left(1+e^{\hat{\alpha}+\hat{\beta}}\right)^2}{n_1e^{\hat{\alpha}+\hat{\beta}}}+\frac{ \left(1+e^{\hat{\alpha}}\right)^2}{n_2e^{\hat{\alpha}}}\\ &=\frac{ \left(1+\frac{a}{c}\right)^2}{n_1\frac{a}{c}}+\frac{ \left(1+\frac{b}{d}\right)^2}{n_2\frac{b}{d}}\\ &=\frac{ \left(a+c\right)^2}{c^2} \cdot \frac{c}{an_1}+\frac{ \left(b+d\right)^2}{d^2} \cdot \frac{d}{bn_2}\\ &=\frac{ \left(a+c\right)^2}{acn_1}+\frac{ \left(b+d\right)^2}{bdn_2} \end{align} $a+c=n_1,b+d=n_2$ より、 \begin{align} \hat{V} \left(\hat{\beta}\right)=\frac{a+c}{ac}+\frac{b+d}{bd} \end{align} 各項を部分分数分解すると、 \begin{align} \hat{V} \left(\hat{\beta}\right)=\frac{1}{a}+\frac{1}{b}+\frac{1}{c}+\frac{1}{d} \end{align} $\blacksquare$

問題6.2.11:ワルド検定統計量

ワルド検定の検定統計量の定義 $\chi_W^2=\frac{{\hat{\beta}}^2}{\hat{V} \left(\hat{\beta}\right)}$ より、 \begin{align} \chi_W^2=\frac{ \left(\log{\frac{ad}{bc}}\right)^2}{ \left[\frac{1}{a}+\frac{1}{b}+\frac{1}{c}+\frac{1}{d}\right]} \end{align} $\blacksquare$

問題6.2.13:尤度比検定

対数尤度の式より、帰無仮説 $\beta=0$ における対数尤度は、 \begin{align} l \left(\pi_1,\pi_2\right)&=m_1\alpha+a\beta-n_1\log{ \left(1+e^{\alpha+\beta}\right)}-n_2\log{ \left(1+e^\alpha\right)}\\ l \left(\hat{\alpha},0\right)&=m_1\alpha+a \cdot 0-n_1\log{ \left(1+e^{\alpha+0}\right)}-n_2\log{ \left(1+e^\alpha\right)}\\ &=m_1\alpha- \left(n_1+n_2\right)\log{ \left(1+e^\alpha\right)}\\ &=m_1\alpha-N\log{ \left(1+e^\alpha\right)} \end{align} この対数尤度関数を $\alpha$ で偏微分すると、スコア関数は、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)=m_1-N\frac{e^\alpha}{1+e^\alpha} \end{align} 尤度方程式 $U_\alpha \left(\boldsymbol{\theta}\right)=0$ を解くことによって得られる $\alpha$ の最尤推定量は、 \begin{gather} m_1-N\frac{e^{{\hat{\alpha}}_0}}{1+e^{{\hat{\alpha}}_0}}=0\\ \frac{e^{{\hat{\alpha}}_0}}{1+e^{{\hat{\alpha}}_0}}=\frac{m_1}{N}\\ \left(1-\frac{m_1}{N}\right)e^{{\hat{\alpha}}_0}=\frac{m_1}{N}\\ e^{{\hat{\alpha}}_0}=\frac{m_1}{N} \cdot \frac{N}{N-m_1}\\ e^{{\hat{\alpha}}_0}=\frac{m_1}{m_2}\\ {\hat{\alpha}}_0=\log{\frac{m_1}{m_2}} \end{gather} 尤度比検定の検定統計量の定義 $\chi_{LR}^2=2\log{L \left(\hat{\alpha},\hat{\beta}\right)}-2\log{L \left(\hat{\alpha},0\right)}$ より、 \begin{align} \chi_{LR}^2&=2 \left\{m_1\hat{\alpha}+a\hat{\beta}-n_1\log{ \left(1+e^{\hat{\alpha}+\hat{\beta}}\right)}-n_2\log{ \left(1+e^\alpha\right)}\right\}-2 \left\{m_1{\hat{\alpha}}_0-N\log{ \left(1+e^{{\hat{\alpha}}_0}\right)}\right\}\\ &=2 \left\{m_1 \left(\hat{\alpha}-{\hat{\alpha}}_0\right)+a\hat{\beta}-n_1\log{ \left(1+e^{\hat{\alpha}+\hat{\beta}}\right)}-n_2\log{ \left(1+e^\alpha\right)}+N\log{ \left(1+e^{{\hat{\alpha}}_0}\right)}\right\}\\ &=2 \left\{m_1 \left(\log{\frac{b}{d}}-\log{\frac{m_1}{m_2}}\right)+a\log{\frac{ad}{bc}}-n_1\log{ \left(1+\frac{a}{c}\right)}-n_2\log{ \left(1+\frac{b}{d}\right)}+N\log{ \left(1+\frac{m_1}{m_2}\right)}\right\}\\ &=2 \left\{m_1\log{\frac{bm_2}{dm_1}}+a\log{\frac{ad}{bc}}-n_1\log{\frac{n_1}{c}}-n_2\log{\frac{n_2}{d}}+N\log{\frac{N}{m_2}}\right\}\\ &=2 \left(m_1\log{\frac{bm_2}{dm_1}}+a\log{\frac{ad}{bc}}+n_1\log{\frac{c}{n_1}}+n_2\log{\frac{d}{n_2}}+N\log{\frac{N}{m_2}}\right)\\ &=2 \left(\log{\frac{b^{m_1}m_2^{m_1}}{d^{m_1}m_1^{m_1}}}+\log{\frac{a^ad^a}{b^ac^a}}+\log{\frac{c^{n_1}}{n_1^{n_1}}}+\log{\frac{d^{n_2}}{n_2^{n_2}}}+\log{\frac{N^N}{m_2^N}}\right)\\ &=2\log{ \left[\frac{b^{m_1}m_2^{m_1}}{d^{m_1}m_1^{m_1}} \cdot \frac{a^ad^a}{b^ac^a} \cdot \frac{c^{n_1}}{n_1^{n_1}} \cdot \frac{d^{n_2}}{n_2^{n_2}} \cdot \frac{N^N}{m_2^N}\right]}\\ &=2\log{ \left[\frac{a^aN^N}{n_1^{n_1}n_2^{n_2}m_1^{m_1}} \cdot \frac{b^{m_1}}{b^a} \cdot \frac{c^{n_1}}{c^a} \cdot \frac{d^ad^{n_2}}{d^{m_1}} \cdot \frac{m_2^{m_1}}{m_2^N}\right]}\\ &=2\log{ \left[\frac{a^aN^N}{n_1^{n_1}n_2^{n_2}m_1^{m_1}} \cdot b^{a+b-a} \cdot c^{a+c-a} \cdot d^{a+b+d- \left(a+b\right)} \cdot m_2^{- \left(m_1+m_2\right)-m_1}\right]}\\ &=2\log{ \left[\frac{a^ab^bc^cd^dN^N}{n_1^{n_1}n_2^{n_2}m_1^{m_1}m_2^{m_2}}\right]} \end{align} $\blacksquare$

問題6.2.14:スコア方程式と推定情報行列

$\beta$ に関する、スコア関数は、帰無仮説 $\beta=0$ においては、 \begin{align} U_\beta \left(\boldsymbol{\theta}\right)&=a-n_1 \cdot \frac{e^{{\hat{\alpha}}_0}}{1+e^{{\hat{\alpha}}_0}}\\ &=a-n_1 \cdot \frac{\frac{m_1}{m_2}}{1+\frac{m_1}{m_2}}\\ &=a-\frac{n_1m_1}{N}\\ &=a-\hat{E} \left(a\right) \end{align} 帰無仮説のもとで $\pi_1=\pi_2=\pi$ であり、 \begin{align} \hat{\pi}=\frac{e^{{\hat{\alpha}}_0}}{1+e^{{\hat{\alpha}}_0}}=\frac{m_1}{N} \end{align} これを、期待情報行列 $\boldsymbol{I} \left(\boldsymbol{\theta}\right)$ の式に代入すると、 \begin{align} \boldsymbol{I} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)&= \left[\begin{matrix}n_1\hat{\pi} \left(1-\hat{\pi}\right)+n_2\hat{\pi} \left(1-\hat{\pi}\right)&n_1\hat{\pi} \left(1-\hat{\pi}\right)\\n_1\hat{\pi} \left(1-\hat{\pi}\right)&n_1\hat{\pi} \left(1-\hat{\pi}\right)\\\end{matrix}\right]\\ &=\hat{\pi} \left(1-\hat{\pi}\right) \left[\begin{matrix}N&n_1\\n_1&n_1\\\end{matrix}\right] \end{align} $\blacksquare$

問題6.2.15:有効スコア検定とコクラン検定の同等性

期待情報行列の逆行列 ${\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}$ の式に代入すると、 \begin{align} {\boldsymbol{I} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)}^{-1}&= \left[\begin{matrix}\frac{1}{n_2\hat{\pi} \left(1-\hat{\pi}\right)}&-\frac{1}{n_2\hat{\pi} \left(1-\hat{\pi}\right)}\\-\frac{1}{n_2\hat{\pi} \left(1-\hat{\pi}\right)}&\frac{n_1\hat{\pi} \left(1-\hat{\pi}\right)+n_2\hat{\pi} \left(1-\hat{\pi}\right)}{n_1\hat{\pi} \left(1-\hat{\pi}\right)n_2\hat{\pi} \left(1-\hat{\pi}\right)}\\\end{matrix}\right]\\ &=\frac{1}{\hat{\pi} \left(1-\hat{\pi}\right)} \left[\begin{matrix}\frac{1}{n_2}&-\frac{1}{n_2}\\-\frac{1}{n_2}&\frac{N}{n_1n_2}\\\end{matrix}\right]\\ &=\frac{1}{\hat{\pi} \left(1-\hat{\pi}\right)} \cdot \frac{1}{Nn_1-n_1^2} \left[\begin{matrix}n_1&-n_1\\-n_1&N\\\end{matrix}\right] \end{align} また、帰無仮説のもとで $\beta$ に対応する推定情報量の逆行列の成分は、 \begin{align} V \left(\hat{\beta}\right)&= \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\beta}\\ &=\frac{N}{n_1n_2\hat{\pi} \left(1-\hat{\pi}\right)}\\ &=\frac{N^3}{n_1n_2m_1m_2} \end{align} 結果として有効スコア検定 $\chi^2=\frac{{\hat{\beta}}^2}{\hat{V} \left(\hat{\beta}\right)}$ は、 \begin{align} \chi^2&=\frac{ \left[a-\frac{n_1m_1}{N}\right]^2}{\frac{n_1n_2m_1m_2}{N^3}}\\ &=\frac{ \left[a-\hat{E} \left(a\right)\right]^2}{\hat{V} \left[a-\hat{E} \left(a\right)\right]} \end{align} これは、$2\times2$ 表に対するコクラン検定と等しい。 $\blacksquare$

参考文献

  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.295-296
  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.269-275

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ