ロジスティック・モデルによる対数オッズ比の最尤推定

公開日: 更新日:

【2022年11月2週】 【A000】生物統計学 【A051】コホート研究 【A090】多変量回帰モデル 【A092】ロジスティック回帰分析

この記事をシェアする
  • B!
サムネイル画像

本稿では、ロジスティック・モデルによる対数オッズ比の最尤推定について解説しています。回帰係数の最尤推定量の分散がWoolfによる対数オッズ比の公式と等しいことの証明、回帰係数のワルド検定、尤度比検定、有効スコア検定の検定統計量の導出、有効スコア検定がコクラン検定と同値であることの証明が含まれます。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
  • 曝露(発症)状況を表す右下の添え字は、「0」である場合($n_0,\pi_0$ など)や「2」である場合($n_2,\pi_2$ など)がありますが、どちらも「非曝露群(コントロール群)」を表しています。
  • 漸近的な性質を用いる際は、①中心極限定理が成り立つ、②漸近分散を推定する際に、母数をその一致推定量で置き換えることができるということが成り立つと仮定しています。
  • デルタ法を用いる際、剰余項(2次の項)が漸近的に無視できる($0$に確率収束する)と仮定しています。

【定理】ロジスティック・モデルによる対数オッズ比の最尤推定

【定理】
ロジスティック・モデルによる対数オッズ比の最尤推定
MLE of Log Odd Ratios by Logistic Regression Models

マッチングなしのコホート研究(積二項モデル)において、ロジスティック・モデルを用いると、パラメータ $\alpha,\beta$ の最尤推定量は、 \begin{gather} \hat{\alpha}=\log{\frac{b}{d}} \quad \hat{\beta}=\log{\frac{ad}{bc}} \end{gather} で与えられる。

証明

証明

積二項尤度の基本式より、 \begin{align} L \left(\pi_1,\pi_0\right)={}_{n_1}C_a\pi_1^a \left(1-\pi_1\right)^{n_1-a} \cdot {}_{n_0}C_b\pi_0^b \left(1-\pi_0\right)^{n_0-b} \end{align} 対数尤度関数の定義式 $l \left(\theta,\boldsymbol{x}\right)=\log{L \left(\theta,\boldsymbol{x}\right)}$ より、 \begin{align} l \left(\pi_1,\pi_0\right)&=\log{ \left[{}_{n_1}C_a\pi_1^a \left(1-\pi_1\right)^{n_1-a} \cdot {}_{n_0}C_b\pi_0^b \left(1-\pi_0\right)^{n_0-b}\right]}\\ &=\log{{}_{n_1}C_a}+a\log{\pi_1}+ \left(n_1-a\right)\log{ \left(1-\pi_1\right)}+\log{{}_{n_0}C_b}+b\log{\pi_0}+ \left(n_0-b\right)\log{ \left(1-\pi_0\right)} \end{align} $\log{{}_{n_1}C_a}+\log{{}_{n_0}C_b}=C$ とすると、$n_1-a=c,n_0-b=d$ より、 \begin{align} l \left(\pi_1,\pi_0\right)=a\log{\pi_1}+c\log{ \left(1-\pi_1\right)}+b\log{\pi_0}+d\log{ \left(1-\pi_0\right)}+C \end{align}

対数尤度をパラメータ $\alpha,\beta$ およびの周辺度数 $n_1,n_0,m_1,m_0$ で表すと、 \begin{align} l \left(\pi_1,\pi_0\right)&=a\log{ \left(\frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}\right)}+c\log{ \left(\frac{1}{1+e^{\alpha+\beta}}\right)}+b\log{ \left(\frac{e^\alpha}{1+e^\alpha}\right)}+d\log{ \left(\frac{1}{1+e^\alpha}\right)}+C\\ &=a\log{ \left(e^{\alpha+\beta}\right)}-a\log{ \left(1+e^{\alpha+\beta}\right)}-c\log{ \left(1+e^{\alpha+\beta}\right)}+b\log{ \left(e^\alpha\right)}-b\log{ \left(1+e^\alpha\right)}-d\log{ \left(1+e^\alpha\right)}+C\\ &=a\log{ \left(e^{\alpha+\beta}\right)}- \left(a+c\right)\log{ \left(1+e^{\alpha+\beta}\right)}+b\log{ \left(e^\alpha\right)}- \left(b+d\right)\log{ \left(1+e^\alpha\right)}+C \end{align} 各セル度数どうしの関係より、 \begin{gather} a+c=n_1\\ b+d=n_0\\ a+b=m_1 \end{gather} よって、 \begin{align} l \left(\pi_1,\pi_0\right)&=a \left(\alpha+\beta\right)-n_1\log{ \left(1+e^{\alpha+\beta}\right)}+b\alpha-n_0\log{ \left(1+e^\alpha\right)}+C\\ &= \left(a+b\right)\alpha+a\beta-n_1\log{ \left(1+e^{\alpha+\beta}\right)}-n_0\log{ \left(1+e^\alpha\right)}+C\\ &=m_1\alpha+a\beta-n_1\log{ \left(1+e^{\alpha+\beta}\right)}-n_0\log{ \left(1+e^\alpha\right)}+C \end{align} この対数尤度関数を $\alpha$ で偏微分すると、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)=m_1-n_1 \cdot \frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}-n_0 \cdot \frac{e^\alpha}{1+e^\alpha} \end{align} ロジスティック・モデルの仮定より、 \begin{align} \pi_1=\frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}} \quad \pi_0=\frac{e^\alpha}{1+e^\alpha} \end{align} よって、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)=m_1-n_1\pi_1-n_0\pi_0 \end{align} 同様に、対数尤度関数を $\beta$ で偏微分すると、 \begin{align} U_\beta \left(\boldsymbol{\theta}\right)&=a-n_1 \cdot \frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}}\\ &=a-n_1\pi_1 \end{align}

ヘッセ行列の成分の定義より、 \begin{align} H_\alpha \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\alpha^2}l \left(\boldsymbol{\theta}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}-n_0 \cdot \frac{e^\alpha}{ \left(1+e^\alpha\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right)-n_0\pi_0 \left(1-\pi_0\right) \end{align} \begin{align} H_\beta \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\beta^2}l \left(\boldsymbol{\theta}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right) \end{align} \begin{align} H_{\alpha\beta} \left(\boldsymbol{\theta}\right)&=\frac{\partial^2}{\partial\alpha\partial\beta}l \left(\boldsymbol{\theta}\right)\\ &=-n_1 \cdot \frac{e^{\alpha+\beta}}{ \left(1+e^{\alpha+\beta}\right)^2}\\ &=-n_1\pi_1 \left(1-\pi_1\right) \end{align} 観測情報行列の定義 $\boldsymbol{i} \left(\boldsymbol{\theta}\right)=-\boldsymbol{H} \left(\boldsymbol{\theta}\right)$ と二項分布における期待情報行列との関係 $\boldsymbol{i} \left(\boldsymbol{\theta}\right)=\boldsymbol{I} \left(\boldsymbol{\theta}\right)$ から \begin{align} \boldsymbol{I} \left(\boldsymbol{\theta}\right)&=\boldsymbol{i} \left(\boldsymbol{\theta}\right)\\ &=- \left[\begin{matrix}H_\alpha \left(\boldsymbol{\theta}\right)&H_{\alpha\beta} \left(\boldsymbol{\theta}\right)\\H_{\alpha\beta} \left(\boldsymbol{\theta}\right)&H_\beta \left(\boldsymbol{\theta}\right)\\\end{matrix}\right]\\ &= \left[\begin{matrix}n_1\pi_1 \left(1-\pi_1\right)+n_0\pi_0 \left(1-\pi_0\right)&n_1\pi_1 \left(1-\pi_1\right)\\n_1\pi_1 \left(1-\pi_1\right)&n_1\pi_1 \left(1-\pi_1\right)\\\end{matrix}\right] \end{align}

最尤推定量 $U \left(\hat{\theta}\right)=0$ を求めると、 \begin{gather} U_\alpha \left(\hat{\alpha},\hat{\beta}\right)=m_1-n_1\pi_1-n_0\pi_0=0\tag{1}\\ U_\beta \left(\hat{\alpha},\hat{\beta}\right)=a-n_1\pi_1=0\tag{2} \end{gather} この連立方程式を解くと、 \begin{align} \pi_0&=\frac{m_1-a}{n_0}\\ &=\frac{b}{n_0}\\ \frac{e^{\hat{\alpha}}}{1+e^{\hat{\alpha}}}&=\frac{b}{n_0}\\ e^{\hat{\alpha}}&=\frac{b}{n_0-b}\\ &=\frac{b}{d}\\ \hat{\alpha}&=\log{\frac{b}{d}} \end{align} この結果と式 $(2)$ より、 \begin{gather} a-n_1 \cdot \frac{e^{\hat{\alpha}+\hat{\beta}}}{1+e^{\hat{\alpha}+\hat{\beta}}}=0 \end{gather} これを $\hat{\beta}$ について解くと、 \begin{gather} \left(1+e^{\hat{\alpha}+\hat{\beta}}\right)a-n_1 \cdot e^{\hat{\alpha}+\hat{\beta}}=0\\ a+a \cdot e^{\hat{\alpha}+\hat{\beta}}-n_1 \cdot e^{\hat{\alpha}+\hat{\beta}}=0\\ a+ \left(a-n_1\right) \cdot e^{\hat{\alpha}} \cdot e^{\hat{\beta}}=0\\ a-c \cdot \frac{b}{d} \cdot e^{\hat{\beta}}=0\\ e^{\hat{\beta}}=\frac{ad}{bc}\\ \hat{\beta}=\log{\frac{ad}{bc}} \end{gather} $\blacksquare$

【定理】ロジスティック・モデルによる対数オッズ比の漸近分散

【定理】
ロジスティック・モデルによる対数オッズ比の漸近分散
Asymptotic Variance of Log Odd Ratios by Logistic Regression Models

ロジスティック・モデルのパラメータ $\alpha,\beta$ の最尤推定量の分散と共分散は、 \begin{gather} V \left(\hat{\alpha}\right)=\frac{1}{n_0\pi_0 \left(1-\pi_0\right)}\\ V \left(\hat{\beta}\right)=\frac{1}{n_1\pi_1 \left(1-\pi_1\right)}+\frac{1}{n_0\pi_0 \left(1-\pi_0\right)}\\ \mathrm{Cov} \left(\hat{\alpha},\hat{\beta}\right)=-\frac{1}{n_0\pi_0 \left(1-\pi_0\right)} \end{gather} で与えられる。

パラメータ $\beta$ の最尤推定量の分散は、Woolfの公式と等しく \begin{gather} \hat{V} \left(\hat{\beta}\right)=\frac{1}{a}+\frac{1}{b}+\frac{1}{c}+\frac{1}{d} \end{gather} で与えられる。

導出

導出

期待情報行列の成分は、 \begin{align} \boldsymbol{I} \left(\boldsymbol{\theta}\right)= \left[\begin{matrix}\boldsymbol{I}_\alpha \left(\boldsymbol{\theta}\right)&\boldsymbol{I}_{\alpha\beta} \left(\boldsymbol{\theta}\right)\\\boldsymbol{I}_{\alpha\beta} \left(\boldsymbol{\theta}\right)^T&\boldsymbol{I}_\beta \left(\boldsymbol{\theta}\right)\\\end{matrix}\right] \end{align} このとき、推定量の共分散行列は、$\boldsymbol{V} \left(\hat{\boldsymbol{\theta}}\right)={\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}$ となる。期待情報行列の逆行列は、 \begin{align} {\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}=\frac{\boldsymbol{1}}{ \left|\boldsymbol{I} \left(\boldsymbol{\theta}\right)\right|} \left[\begin{matrix}\boldsymbol{I}_\beta \left(\boldsymbol{\theta}\right)&-\boldsymbol{I}_{\alpha\beta} \left(\boldsymbol{\theta}\right)^T\\-\boldsymbol{I}_{\alpha\beta} \left(\boldsymbol{\theta}\right)&\boldsymbol{I}_\alpha \left(\boldsymbol{\theta}\right)\\\end{matrix}\right] \end{align} 2×2行列の行列式の公式 $ \left|\boldsymbol{A}\right|=a_{11}a_{22}-a_{12}a_{21}$ より、 \begin{align} \left|\boldsymbol{I} \left(\boldsymbol{\theta}\right)\right|&= \left\{n_1\pi_1 \left(1-\pi_1\right)+n_0\pi_0 \left(1-\pi_0\right)\right\}n_1\pi_1 \left(1-\pi_1\right)- \left\{n_1\pi_1 \left(1-\pi_1\right)\right\}^2\\ &= \left\{n_1\pi_1 \left(1-\pi_1\right)+n_0\pi_0 \left(1-\pi_0\right)-n_1\pi_1 \left(1-\pi_1\right)\right\}n_1\pi_1 \left(1-\pi_1\right)\\ &=n_1\pi_1 \left(1-\pi_1\right)n_0\pi_0 \left(1-\pi_2\right) \end{align} $\pi_1 \left(1-\pi_1\right)=\psi_1,\pi_0 \left(1-\pi_0\right)=\psi_0$ とすると、 \begin{align} \left|\boldsymbol{I} \left(\boldsymbol{\theta}\right)\right|=n_1\psi_1n_0\psi_0 \end{align} したがって、 \begin{align} {\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}&=\frac{1}{n_1\psi_1n_0\psi_0} \left[\begin{matrix}n_1\psi_1&-n_1\psi_1\\-n_1\psi_1&n_1\psi_1+n_0\psi_0\\\end{matrix}\right]\\ &= \left[\begin{matrix}\frac{1}{n_0\psi_0}&-\frac{1}{n_0\psi_0}\\-\frac{1}{n_0\psi_0}&\frac{n_1\psi_1+n_0\psi_0}{n_1\psi_1n_0\psi_0}\\\end{matrix}\right] \end{align}

別な表現として、 \begin{align} {\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}= \left[\begin{matrix} \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\alpha}& \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_{\boldsymbol{\alpha},\boldsymbol{\beta}}\\ \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_{\boldsymbol{\alpha},\boldsymbol{\beta}}^T& \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\beta}\\\end{matrix}\right] \end{align} したがって、推定量の共分散行列は、 \begin{align} V \left(\hat{\alpha}\right)&= \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\alpha}\\ &=\frac{1}{n_0\pi_0 \left(1-\pi_0\right)} \end{align} \begin{align} V \left(\hat{\beta}\right)&= \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\beta}\\ &=\frac{n_1\pi_1 \left(1-\pi_1\right)+n_0\pi_0 \left(1-\pi_0\right)}{n_1\pi_1 \left(1-\pi_1\right)n_0\pi_0 \left(1-\pi_0\right)}\\ &=\frac{1}{n_1\pi_1 \left(1-\pi_1\right)}+\frac{1}{n_0\pi_0 \left(1-\pi_0\right)} \end{align} \begin{align} \mathrm{Cov} \left(\hat{\alpha},\hat{\beta}\right)&= \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_{\boldsymbol{\alpha},\boldsymbol{\beta}}\\ &=-\frac{1}{n_0\pi_0 \left(1-\pi_0\right)} \end{align}

推定量の共分散行列に、ロジスティック・モデルの各値を代入すると、 \begin{align} V \left(\hat{\beta}\right)&=\frac{1}{n_1 \cdot \frac{e^{\alpha+\beta}}{1+e^{\alpha+\beta}} \cdot \frac{1}{1+e^{\alpha+\beta}}}+\frac{1}{n_0 \cdot \frac{e^\alpha}{1+e^\alpha} \cdot \frac{1}{1+e^\alpha}}\\ &=\frac{ \left(1+e^{\alpha+\beta}\right)^2}{n_1e^{\alpha+\beta}}+\frac{ \left(1+e^\alpha\right)^2}{n_0e^\alpha} \end{align} この最尤推定量は、$\alpha=\hat{\alpha},\beta=\hat{\beta}$ を代入して、 \begin{align} \hat{V} \left(\hat{\beta}\right)&=\frac{ \left(1+e^{\hat{\alpha}+\hat{\beta}}\right)^2}{n_1e^{\hat{\alpha}+\hat{\beta}}}+\frac{ \left(1+e^{\hat{\alpha}}\right)^2}{n_0e^{\hat{\alpha}}}\\ &=\frac{ \left(1+\frac{a}{c}\right)^2}{n_1\frac{a}{c}}+\frac{ \left(1+\frac{b}{d}\right)^2}{n_0\frac{b}{d}}\\ &=\frac{ \left(a+c\right)^2}{c^2} \cdot \frac{c}{an_1}+\frac{ \left(b+d\right)^2}{d^2} \cdot \frac{d}{bn_0}\\ &=\frac{ \left(a+c\right)^2}{acn_1}+\frac{ \left(b+d\right)^2}{bdn_0} \end{align} $a+c=n_1,b+d=n_0$ より、 \begin{align} \hat{V} \left(\hat{\beta}\right)=\frac{a+c}{ac}+\frac{b+d}{bd} \end{align} 各項を部分分数分解すると、 \begin{align} \hat{V} \left(\hat{\beta}\right)=\frac{1}{a}+\frac{1}{b}+\frac{1}{c}+\frac{1}{d} \end{align} $\blacksquare$

【定理】ロジスティック・モデルのパラメータに対する検定統計量

【定理】
ロジスティック・モデルのパラメータに関する検定統計量
Test Statistics for the Parameter of Logistic Regression Models

ロジスティック・モデルのパラメータに関する帰無仮説と対立仮説を \begin{gather} H_0:\beta=0 \quad H_1:\beta \neq 0 \end{gather} とする。

この仮説を検定する検定統計量について、
〔1〕ワルド検定の検定統計量は、 \begin{gather} \chi_W^2=\frac{ \left(\log{\frac{ad}{bc}}\right)^2}{ \left[\frac{1}{a}+\frac{1}{b}+\frac{1}{c}+\frac{1}{d}\right]} \end{gather} で与えられる。 〔2〕尤度比検定の検定統計量は、 \begin{align} \chi_{LR}^2=2\log{ \left[\frac{a^ab^bc^cd^dN^N}{n_1^{n_1}n_0^{n_0}m_1^{m_1}m_0^{m_0}}\right]} \end{align} で与えられる。 〔3〕有効スコア検定の検定統計量は、コクラン検定と等しく \begin{align} \chi^2=\frac{ \left[a-\frac{n_1m_1}{N}\right]^2}{\frac{n_1n_0m_1m_0}{N^3}} \end{align} で与えられる。

導出

導出

ロジスティック・モデルのパラメータと対数オッズ比の関係から、問題としている帰無仮説と対立仮説を評価すると、 \begin{gather} H_0:\log{\mathrm{OR}}=0 \quad H_1:\log{\mathrm{OR}} \neq 0 \end{gather} すなわち、この検定問題は、通常の分割表における曝露と発症の関係に関する検定問題と同値である。

〔1〕ワルド検定の検定統計量
ワルド検定の検定統計量の定義 $\chi_W^2=\frac{{\hat{\beta}}^2}{\hat{V} \left(\hat{\beta}\right)}$ より、 \begin{align} \chi_W^2=\frac{ \left(\log{\frac{ad}{bc}}\right)^2}{ \left[\frac{1}{a}+\frac{1}{b}+\frac{1}{c}+\frac{1}{d}\right]} \end{align} $\blacksquare$

〔2〕尤度比検定の検定統計量
対数尤度の式より、帰無仮説 $\beta=0$ における対数尤度は、 \begin{align} l \left(\pi_1,\pi_2\right)&=m_1\alpha+a\beta-n_1\log{ \left(1+e^{\alpha+\beta}\right)}-n_0\log{ \left(1+e^\alpha\right)}\\ l \left(\hat{\alpha},0\right)&=m_1\alpha+a \cdot 0-n_1\log{ \left(1+e^{\alpha+0}\right)}-n_0\log{ \left(1+e^\alpha\right)}\\ &=m_1\alpha- \left(n_1+n_0\right)\log{ \left(1+e^\alpha\right)}\\ &=m_1\alpha-N\log{ \left(1+e^\alpha\right)} \end{align} この対数尤度関数を $\alpha$ で偏微分すると、スコア関数は、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)=m_1-N\frac{e^\alpha}{1+e^\alpha} \end{align} 尤度方程式 $U_\alpha \left(\boldsymbol{\theta}\right)=0$ を解くことによって得られる $\alpha$ の最尤推定量は、 \begin{gather} m_1-N\frac{e^{{\hat{\alpha}}_0}}{1+e^{{\hat{\alpha}}_0}}=0\\ \frac{e^{{\hat{\alpha}}_0}}{1+e^{{\hat{\alpha}}_0}}=\frac{m_1}{N}\\ \left(1-\frac{m_1}{N}\right)e^{{\hat{\alpha}}_0}=\frac{m_1}{N}\\ e^{{\hat{\alpha}}_0}=\frac{m_1}{N} \cdot \frac{N}{N-m_1}\\ e^{{\hat{\alpha}}_0}=\frac{m_1}{m_0}\\ {\hat{\alpha}}_0=\log{\frac{m_1}{m_0}} \end{gather} 尤度比検定の検定統計量の定義 $\chi_{LR}^2=2\log{L \left(\hat{\alpha},\hat{\beta}\right)}-2\log{L \left(\hat{\alpha},0\right)}$ より、 \begin{align} \chi_{LR}^2&=2 \left\{m_1\hat{\alpha}+a\hat{\beta}-n_1\log{ \left(1+e^{\hat{\alpha}+\hat{\beta}}\right)}-n_0\log{ \left(1+e^\alpha\right)}\right\}-2 \left\{m_1{\hat{\alpha}}_0-N\log{ \left(1+e^{{\hat{\alpha}}_0}\right)}\right\}\\ &=2 \left\{m_1 \left(\hat{\alpha}-{\hat{\alpha}}_0\right)+a\hat{\beta}-n_1\log{ \left(1+e^{\hat{\alpha}+\hat{\beta}}\right)}-n_0\log{ \left(1+e^\alpha\right)}+N\log{ \left(1+e^{{\hat{\alpha}}_0}\right)}\right\}\\ &=2 \left\{m_1 \left(\log{\frac{b}{d}}-\log{\frac{m_1}{m_0}}\right)+a\log{\frac{ad}{bc}}-n_1\log{ \left(1+\frac{a}{c}\right)}-n_0\log{ \left(1+\frac{b}{d}\right)}+N\log{ \left(1+\frac{m_1}{m_0}\right)}\right\}\\ &=2 \left\{m_1\log{\frac{bm_0}{dm_1}}+a\log{\frac{ad}{bc}}-n_1\log{\frac{n_1}{c}}-n_0\log{\frac{n_0}{d}}+N\log{\frac{N}{m_0}}\right\}\\ &=2 \left(m_1\log{\frac{bm_0}{dm_1}}+a\log{\frac{ad}{bc}}+n_1\log{\frac{c}{n_1}}+n_0\log{\frac{d}{n_0}}+N\log{\frac{N}{m_0}}\right)\\ &=2 \left(\log{\frac{b^{m_1}m_0^{m_1}}{d^{m_1}m_1^{m_1}}}+\log{\frac{a^ad^a}{b^ac^a}}+\log{\frac{c^{n_1}}{n_1^{n_1}}}+\log{\frac{d^{n_0}}{n_0^{n_0}}}+\log{\frac{N^N}{m_0^N}}\right)\\ &=2\log{ \left[\frac{b^{m_1}m_0^{m_1}}{d^{m_1}m_1^{m_1}} \cdot \frac{a^ad^a}{b^ac^a} \cdot \frac{c^{n_1}}{n_1^{n_1}} \cdot \frac{d^{n_0}}{n_0^{n_0}} \cdot \frac{N^N}{m_0^N}\right]}\\ &=2\log{ \left[\frac{a^aN^N}{n_1^{n_1}n_0^{n_0}m_1^{m_1}} \cdot \frac{b^{m_1}}{b^a} \cdot \frac{c^{n_1}}{c^a} \cdot \frac{d^ad^{n_0}}{d^{m_1}} \cdot \frac{m_0^{m_1}}{m_0^N}\right]}\\ &=2\log{ \left[\frac{a^aN^N}{n_1^{n_1}n_0^{n_0}m_1^{m_1}} \cdot b^{a+b-a} \cdot c^{a+c-a} \cdot d^{a+b+d- \left(a+b\right)} \cdot m_0^{- \left(m_1+m_0\right)-m_1}\right]}\\ &=2\log{ \left[\frac{a^ab^bc^cd^dN^N}{n_1^{n_1}n_0^{n_0}m_1^{m_1}m_0^{m_0}}\right]} \end{align} $\blacksquare$

〔3〕有効スコア検定の検定統計量
$\beta$ に関する、スコア関数は、帰無仮説 $\beta=0$ においては、 \begin{align} U_\beta \left(\boldsymbol{\theta}\right)&=a-n_1 \cdot \frac{e^{{\hat{\alpha}}_0}}{1+e^{{\hat{\alpha}}_0}}\\ &=a-n_1 \cdot \frac{\frac{m_1}{m_0}}{1+\frac{m_1}{m_0}}\\ &=a-\frac{n_1m_1}{N}\\ &=a-\hat{E} \left(a\right) \end{align} 帰無仮説のもとで $\pi_1=\pi_0=\pi$ であり、 \begin{align} \hat{\pi}=\frac{e^{{\hat{\alpha}}_0}}{1+e^{{\hat{\alpha}}_0}}=\frac{m_1}{N} \end{align} これを、期待情報行列 $\boldsymbol{I} \left(\boldsymbol{\theta}\right)$ の式に代入すると、 \begin{align} \boldsymbol{I} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)&= \left[\begin{matrix}n_1\hat{\pi} \left(1-\hat{\pi}\right)+n_0\hat{\pi} \left(1-\hat{\pi}\right)&n_1\hat{\pi} \left(1-\hat{\pi}\right)\\n_1\hat{\pi} \left(1-\hat{\pi}\right)&n_1\hat{\pi} \left(1-\hat{\pi}\right)\\\end{matrix}\right]\\ &=\hat{\pi} \left(1-\hat{\pi}\right) \left[\begin{matrix}N&n_1\\n_1&n_1\\\end{matrix}\right] \end{align} 期待情報行列の逆行列 ${\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}$ の式に代入すると、 \begin{align} {\boldsymbol{I} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)}^{-1}&= \left[\begin{matrix}\frac{1}{n_0\hat{\pi} \left(1-\hat{\pi}\right)}&-\frac{1}{n_0\hat{\pi} \left(1-\hat{\pi}\right)}\\-\frac{1}{n_0\hat{\pi} \left(1-\hat{\pi}\right)}&\frac{n_1\hat{\pi} \left(1-\hat{\pi}\right)+n_0\hat{\pi} \left(1-\hat{\pi}\right)}{n_1\hat{\pi} \left(1-\hat{\pi}\right)n_0\hat{\pi} \left(1-\hat{\pi}\right)}\\\end{matrix}\right]\\ &=\frac{1}{\hat{\pi} \left(1-\hat{\pi}\right)} \left[\begin{matrix}\frac{1}{n_0}&-\frac{1}{n_0}\\-\frac{1}{n_0}&\frac{N}{n_1n_0}\\\end{matrix}\right]\\ &=\frac{1}{\hat{\pi} \left(1-\hat{\pi}\right)} \cdot \frac{1}{Nn_1-n_1^2} \left[\begin{matrix}n_1&-n_1\\-n_1&N\\\end{matrix}\right] \end{align} また、帰無仮説のもとで $\beta$ に対応する推定情報量の逆行列の成分は、 \begin{align} V \left(\hat{\beta}\right)&= \left[{\boldsymbol{I} \left(\boldsymbol{\theta}\right)}^{-1}\right]_\boldsymbol{\beta}\\ &=\frac{N}{n_1n_0\hat{\pi} \left(1-\hat{\pi}\right)}\\ &=\frac{N^3}{n_1n_0m_1m_0} \end{align} 結果として有効スコア検定 $\chi^2=\frac{{\hat{\beta}}^2}{\hat{V} \left(\hat{\beta}\right)}$ は、 \begin{align} \chi^2&=\frac{ \left[a-\frac{n_1m_1}{N}\right]^2}{\frac{n_1n_0m_1m_0}{N^3}}\\ &=\frac{ \left[a-\hat{E} \left(a\right)\right]^2}{\hat{V} \left[a-\hat{E} \left(a\right)\right]} \end{align} これは、通常の分割表に対するコクラン検定の検定統計量と等しい。 $\blacksquare$

超幾何分布モデルに対するロジスティック・モデル

超幾何分布モデルに対してもロジスティック・モデルを仮定することができる。この場合もやはり、対数オッズ比が回帰係数と等しい \begin{gather} \beta=\log{\varphi} \end{gather} とするモデルである。

周辺度数が固定されているという条件のもとでは、条件付き超幾何確率となる尤度関数は、 \begin{align} L \left(\varphi\right)=\frac{{}_{n_1}C_a \cdot {}_{n_2}C_{m_1-a} \cdot \varphi^a}{\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot \varphi^i}} \end{align} $\beta=\log{\varphi}$ より、対数尤度 $l \left(\theta\right)=\log{L \left(\theta\right)}$ は、 \begin{align} l \left(\varphi\right)&=\log{ \left({}_{n_1}C_a \cdot {}_{n_2}C_{m_1-a} \cdot \varphi^a\right)}-\log{ \left(\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot \varphi^i}\right)}\\ &=\log{{}_{n_1}C_a}+\log{{}_{n_2}C_{m_1-a}}+a\log{\varphi}-\log{ \left(\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot \varphi^i}\right)}\\ &=a\beta-\log{ \left(\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot \varphi^i}\right)}+C \end{align} スコア関数 $U \left(\theta\right)=\frac{\partial}{\partial\theta}l \left(\theta\right)$ は、この対数尤度関数を $\beta$ で偏微分して、 \begin{align} U \left(\beta\right)&=a-\frac{\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot i e^{i\beta}}}{\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot e^{i\beta}}}\\ &=a-E \left(a\middle|\beta\right) \end{align} 尤度方程式 $U \left(\theta\right)=0$ は、 \begin{align} a-\frac{\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot i e^{i\beta}}}{\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot e^{i\beta}}}=0\\ a\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot e^{i\beta}}=\sum_{i=a_l}^{a_u}{{}_{n_1}C_i \cdot {}_{n_2}C_{m_1-i} \cdot i e^{i\beta}} \end{align} これには閉形式の解が存在しないため、ニュートン・ラフソン法などの反復計算が必要となる。これを行うためには、ヘッセ行列、あるいは観測情報量に関する式が必要になる。

表記の省略のため、次の \begin{align} C_i={}_{n_1}C_i \cdot {}_{n_0}C_{m_1-i} \end{align} という文字を用いると、 観測情報量 $i \left(\beta\right)=-\frac{\partial^2}{\partial\beta^2}l \left(\beta\right)$ は、 \begin{align} i \left(\beta\right)&=\frac{ \left[\sum_{i=a_l}^{a_u}{C_i \cdot e^{i\beta}}\right] \left[\sum_{i=a_l}^{a_u}{C_i \cdot i^2e^{i\beta}}\right]- \left[\sum_{i=a_l}^{a_u}{C_i \cdot i e^{i\beta}}\right]^2}{ \left[\sum_{i=a_l}^{a_u}{C_i \cdot e^{i\beta}}\right]^2}\\ &=\frac{\sum_{i=a_l}^{a_u}{C_i \cdot i^2e^{i\beta}}}{\sum_{i=a_l}^{a_u}{C_i \cdot e^{i\beta}}}- \left[\frac{\sum_{i=a_l}^{a_u}{C_i \cdot i e^{i\beta}}}{\sum_{i=a_l}^{a_u}{C_i \cdot e^{i\beta}}}\right]^2 \end{align} ここで、以下が成り立つので、 \begin{gather} E \left(a^2\middle|\beta\right)=\frac{\sum_{i=a_l}^{a_u}{C_i \cdot i^2e^{i\beta}}}{\sum_{i=a_l}^{a_u}{C_i \cdot e^{i\beta}}}\\ \left\{E \left(a\middle|\beta\right)\right\}^2= \left[\frac{\sum_{i=a_l}^{a_u}{C_i \cdot i e^{i\beta}}}{\sum_{i=a_l}^{a_u}{C_i \cdot e^{i\beta}}}\right]^2 \end{gather} 観測情報量および期待情報量は \begin{align} i \left(\beta\right)&=I \left(\beta\right)\\ &=E \left(a^2\middle|\beta\right)- \left\{E \left(a\middle|\beta\right)\right\}^2\\ &=V \left(a\middle|\beta\right) \end{align}

有効スコア検定

帰無仮説 $H_0:\beta=\beta_0=0$ のもとでのスコア方程式は、 \begin{align} U \left(\beta_0\right)&=a-\frac{\sum_{i=a_l}^{a_u}{C_i \cdot i}}{\sum_{i=a_l}^{a_u}C_i}\\ &=a-E \left(a\middle|\beta_0\right)\\ &=a-\frac{m_1n_1}{N} \end{align} 期待情報量は、 \begin{align} I \left(\beta_0\right)=V \left(a\middle|\beta_0\right)=\frac{m_1n_1m_0n_0}{N^2 \left(N-1\right)} \end{align} スコア検定量の定義式より、 \begin{align} \chi^2&=\frac{ \left[U \left(\beta\right)\right]^2}{I \left(\beta_0\right)}\\ &=\frac{ \left[a-E \left(a\middle|\beta_0\right)\right]^2}{V \left(a\middle|\beta_0\right)}\\ &=\frac{ \left[a-\frac{m_1n_1}{N}\right]^2}{\frac{m_1n_1m_2n_2}{N^2 \left(N-1\right)}} \end{align} これはマンテル・ヘンツェル検定の検定統計量と等しい。

スコアにもとづく推定

スコアにもとづく推定値の公式 ${\hat{\theta}}_0=\frac{U \left(\theta_0\right)}{I \left(\theta_0\right)}$ より、 \begin{align} \hat{\beta}= \left(a-\frac{n_1m_1}{N}\right) \left\{\frac{N^2 \left(N-1\right)}{n_1n_0m_1m_0}\right\} \end{align} また、スコアにもとづく推定値の分散の公式 $V \left({\hat{\theta}}_0\right)=\frac{1}{I \left(\theta_0\right)}$ より、 \begin{align} V \left(\hat{\beta}\right)=\frac{N^2 \left(N-1\right)}{n_1n_0m_1m_0} \end{align}

参考文献

  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.268-278

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ