ロジスティック・モデルによる共通対数オッズ比の最尤推定

公開日: 更新日:

【2022年11月2週】 【A000】生物統計学 【A051】コホート研究 【A090】多変量回帰モデル 【A092】ロジスティック回帰分析

この記事をシェアする
  • B!
サムネイル画像

本稿では、層別解析にロジスティック・モデルを適用した場合の共通対数オッズ比の最尤推定について解説しています。回帰係数の有効スコア検定が層別解析に対するマンテル・ヘンツェル検定やコクラン検定と同値であることの証明が含まれます。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
  • 曝露(発症)状況を表す右下の添え字は、「0」である場合($n_0,\pi_0$ など)や「2」である場合($n_2,\pi_2$ など)がありますが、どちらも「非曝露群(コントロール群)」を表しています。
  • 漸近的な性質を用いる際は、①中心極限定理が成り立つ、②漸近分散を推定する際に、母数をその一致推定量で置き換えることができるということが成り立つと仮定しています。

層別化した分割表に対するロジスティック・モデル

マッチングなし・層化ありのコホート研究(超幾何分布モデル)において、各層の対数発症オッズ(発症確率のロジット)について、 \begin{gather} \log{ \left(\frac{\pi_{1k}}{1-\pi_{1k}}\right)}=\alpha_k+\beta_k\Leftrightarrow\frac{\pi_{1k}}{1-\pi_{1k}}=e^{\alpha_k+\beta_k}\\ \log{ \left(\frac{\pi_{0k}}{1-\pi_{0k}}\right)}=\alpha_k\Leftrightarrow\frac{\pi_{0k}}{1-\pi_{0k}}=e^{\alpha_k} \end{gather} が成り立つとする。 このとき、曝露群・非曝露群の発症確率は、ロジスティック関数として、 \begin{gather} \pi_{1k}=\frac{e^{\alpha_k+\beta_k}}{1+e^{\alpha_k+\beta_k}} \quad 1-\pi_{1k}=\frac{1}{1+e^{\alpha_k+\beta_k}}\\ \pi_{0k}=\frac{e^{\alpha_k}}{1+e^{\alpha_k}} \quad 1-\pi_{0k}=\frac{1}{1+e^{\alpha_k}} \end{gather} で与えられる。 また、各層の発症オッズ比 $\varphi_k={\mathrm{OR}}_k$ は、 \begin{align} \log{\varphi_k}=\beta_k\Leftrightarrow\varphi_k=e^{\beta_k} \end{align} で与えられる。

尤度のモデルとして超幾何分布モデルを仮定すると、単層の時と同様の流れで、第 $k$ 層目の条件付き超幾何尤度は、 \begin{align} L \left(\varphi_k\right)=\frac{{}_{n_{1k}}C_{a_k} \cdot {}_{n_{0k}}C_{m_{1k}-a_k} \cdot \varphi_k^{a_k}}{\sum_{i=a_{lk}}^{a_{uk}}{{}_{n_{1k}}C_i \cdot {}_{n_{0k}}C_{m_{1k}-i} \cdot \varphi_k^i}} \end{align} 表記の省略のため、次の \begin{align} C_{ik}={}_{n_{1k}}C_i \cdot {}_{n_{0k}}C_{m_{1k}-i} \end{align} という文字を用いると、 $\beta_k=\log{\varphi_k}$ より、対数尤度 $l \left(\theta\right)=\log{L \left(\theta\right)}$ は、 \begin{align} l \left(\varphi\right)&=\log{ \left(C_{ik} \cdot \varphi_k^{a_k}\right)}-\log{ \left(\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot \varphi_k^i}\right)}\\ &=\log{C_{ik}}+a_k\log{\varphi_k}-\log{ \left(\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot \varphi_k^i}\right)}\\ l \left(\beta_k\right)&=a_k\beta_k-\log{ \left(\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot \varphi_k^i}\right)}+C \end{align} スコア関数 $U \left(\theta\right)=\frac{\partial}{\partial\theta}l \left(\theta\right)$ は、この対数尤度関数を $\beta_k$ で偏微分して、 \begin{align} U \left(\beta_k\right)&=a_k-\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\\ &=a_k-E \left(a_k\middle|\beta_k\right) \end{align} 観測情報量 $i \left(\beta_k\right)=-\frac{\partial^2}{\partial\beta^2}l \left(\beta_k\right)$ は、 \begin{align} i \left(\beta_k\right)&=\frac{ \left[\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}\right] \left[\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i^2e^{i\beta_k}}\right]- \left[\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}\right]^2}{ \left[\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}\right]^2}\\ &=\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i^2e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}- \left[\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\right]^2 \end{align} ここで、以下が成り立つので、 \begin{gather} E \left(a_k^2\middle|\beta_k\right)=\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i^2e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\\ \left\{E \left(a_k\middle|\beta_k\right)\right\}^2= \left[\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\right]^2 \end{gather} 観測情報量および期待情報量は \begin{align} i \left(\beta_k\right)=I \left(\beta_k\right)=E \left(a_k^2\middle|\beta_k\right)- \left\{E \left(a_k\middle|\beta_k\right)\right\}^2=V \left(a_k\middle|\beta_k\right) \end{align}

ここで、全層を通じた共通オッズ比が存在する \begin{gather} \beta_1= \cdots =\beta_K=\beta \end{gather} という仮定もと、 各層の尤度は、1つのパラメータ \begin{gather} \varphi=e^\beta \end{gather} のみを含むので、 各層が得られる尤度が統計的に独立であるとき、全体としての尤度関数は、$K$ 個の各層における超幾何尤度の積 \begin{align} L \left(\beta\right)=\prod_{i=1}^{K}L \left(\beta_k\right) \end{align} となる。 したがって、対数の性質 $\log{\prod_{i=1}^{K}f \left(x_k\right)}=\sum_{k=1}^{K}\log{f \left(x_k\right)}$ から、総スコア関数は、 \begin{align} U \left(\beta\right)&=\sum_{i=1}^{K}U \left(\beta_k\right)\\ &=\sum_{k=1}^{K} \left[a_k-\frac{\sum_{i=a_l}^{a_u}{C_{ik} \cdot i e^{i\beta}}}{\sum_{i=a_l}^{a_u}{C_{ik} \cdot e^{i\beta}}}\right]\\ &=\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle|\beta\right)\right] \end{align} 同様に、総観測情報量および総期待情報量は \begin{align} i \left(\beta\right)&=I \left(\beta\right)\\ &=\sum_{i=1}^{K}i \left(\beta_k\right)\\ &=\sum_{k=1}^{K} \left[\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i^2e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}- \left(\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\right)^2\right]\\ &=\sum_{k=1}^{K} \left[E \left(a_k^2\middle|\beta\right)- \left\{E \left(a_k\middle|\beta\right)\right\}^2\right]\\ &=\sum_{k=1}^{K}{V \left(a_k\middle|\beta\right)} \end{align}

これは、帰無仮説 $H_0:\beta=\beta_0=0$ のもとでは、 \begin{align} U \left(\beta_0\right)&=\sum_{k=1}^{K} \left[a_k-\frac{\sum_{i=a_l}^{a_u}{C_{ik} \cdot i}}{\sum_{i=a_l}^{a_u}C_{ik}}\right]\\ &=\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle|\beta_0\right)\right] \end{align} \begin{align} i \left(\beta\right)&=I \left(\beta\right)\\ &=\sum_{k=1}^{K} \left[E \left(a_k^2\middle|\beta_0\right)- \left\{E \left(a_k\middle|\beta_0\right)\right\}^2\right]\\ &=\sum_{k=1}^{K}{V \left(a_k\middle|\beta_0\right)} \end{align}

有効スコア検定

有効スコア検定の検定統計量 $\chi^2=\frac{ \left\{U \left(\beta_0\right)\right\}^2}{I \left(\beta_0\right)}$ は、 \begin{align} \chi_S^2=\frac{ \left[\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle|\beta_0\right)\right]\right]^2}{\sum_{k=1}^{K}{V \left(a_k\middle|\beta_0\right)}} \end{align} これは、層別解析におけるマンテル・ヘンツェル検定と等しいことが分かる。

スコアにもとづく推定

また、共通対数オッズ比のスコアにもとづく層調整済み推定値は、スコアにもとづく推定値の公式 ${\hat{\theta}}_0=\frac{U \left(\theta_0\right)}{I \left(\theta_0\right)}$ より、 \begin{align} \hat{\beta}&=\frac{\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle|\beta_0\right)\right]}{\sum_{k=1}^{K}{V \left(a_k\middle|\beta_0\right)}}\\ &=\frac{\sum_{k=1}^{K} \left[a_k-\frac{m_{1k}n_{1k}}{N_k}\right]}{\sum_{k=1}^{K} \left[\frac{m_{1k}m_{0k}n_{1k}n_{0k}}{N_k^2 \left(N_k-1\right)}\right]} \end{align} また、スコアにもとづく推定値の分散の公式 $V \left({\hat{\theta}}_0\right)=\frac{1}{I \left(\theta_0\right)}$ より、 \begin{align} V \left(\hat{\beta}\right)&=\frac{1}{\sum_{k=1}^{K}{V \left(a_k\middle|\beta_0\right)}}\\ &=\frac{1}{\sum_{k=1}^{K} \left[\frac{m_{1k}m_{0k}n_{1k}n_{0k}}{N_k^2 \left(N_k-1\right)}\right]} \end{align}

積二項モデルにもとづく考え方

マッチングなし・層化ありのコホート研究(積二項モデル)に対しても、同様にロジスティック・モデルを仮定することができる。この場合もやはり、対数オッズ比が回帰係数と等しい \begin{gather} \beta_k=\log{\varphi_k} \end{gather} とするモデルである。

独立した複数の層に対する積二項尤度ロジスティック・モデルと帰無仮説 すべての表において関連性が存在しない \begin{align} H_0:\beta=\beta_0=0\Leftrightarrow H_0:\pi_{1k}=\pi_{2k}=\pi_k \end{align} を仮定する。

積二項尤度の基本式より、$k$ 番目の層について、 \begin{align} L \left(\pi_{1k},\pi_{0k}\right)={}_{n_{1k}}C_{a_k}\pi_{1k}^{a_k} \left(1-\pi_{1k}\right)^{c_k} \cdot {}_{n_{0k}}C_{b_k}\pi_{0k}^{b_k} \left(1-\pi_{0k}\right)^{d_k} \end{align} 対数尤度関数の定義式 $l \left(\theta,\boldsymbol{x}\right)=\log{L \left(\theta,\boldsymbol{x}\right)}$ より、定数項を無視すると、 \begin{align} l \left(\pi_{1k},\pi_{0k}\right)&=\log{ \left[{}_{n_{1k}}C_{a_k}\pi_{1k}^{a_k} \left(1-\pi_{1k}\right)^{c_k} \cdot {}_{n_{0k}}C_{b_k}\pi_{0k}^{b_k} \left(1-\pi_{0k}\right)^{d_k}\right]}\\ &=\log{{}_{n_{1k}}C_{a_k}}+\alpha_k\log{\pi_{1k}}+c_k\log{ \left(1-\pi_{1k}\right)}+\log{{}_{n_{0k}}C_{b_k}}+b_k\log{\pi_{0k}}+d_k\log{ \left(1-\pi_{0k}\right)}\\ &=a_k\log{\pi_{1k}}+c_k\log{ \left(1-\pi_{1k}\right)}+b_k\log{\pi_{0k}}+d_k\log{ \left(1-\pi_{0k}\right)} \end{align} この尤度をパラメータ $\alpha_k,\beta$ で表すと、 \begin{align} l \left(\alpha_k,\beta\right)&=a_k\log{ \left(\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)}+c_k\log{ \left(\frac{1}{1+e^{\alpha_k+\beta}}\right)}+b_k\log{ \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)}+d_k\log{ \left(\frac{1}{1+e^{\alpha_k}}\right)}\\ &=a_k\log{ \left(e^{\alpha_k+\beta}\right)}-a_k\log{ \left(1+e^{\alpha_k+\beta}\right)}-c_k\log{ \left(1+e^{\alpha_k+\beta}\right)}+b_k\log{ \left(e^{\alpha_k}\right)}-b_k\log{ \left(1+e^{\alpha_k}\right)}-d_k\log{ \left(1+e^{\alpha_k}\right)}\\ &=a_k\log{ \left(e^{\alpha_k+\beta}\right)}- \left(a_k+c_k\right)\log{ \left(1+e^{\alpha_k+\beta}\right)}+b_k\log{ \left(e^{\alpha_k}\right)}- \left(b_k+d_k\right)\log{ \left(1+e^{\alpha_k}\right)}\\ &=a_k \left(\alpha_k+\beta\right)-n_{1k}\log{ \left(1+e^{\alpha_k+\beta}\right)}+b_k\alpha_k-n_{0k}\log{ \left(1+e^{\alpha_k}\right)}\\ &= \left(a_k+b_k\right)\alpha_k+a_k\beta-n_{1k}\log{ \left(1+e^{\alpha_k+\beta}\right)}-n_{0k}\log{ \left(1+e^{\alpha_k}\right)}\\ &=m_{1k}\alpha_k+a_k\beta-n_{1k}\log{ \left(1+e^{\alpha_k+\beta}\right)}-n_{0k}\log{ \left(1+e^{\alpha_k}\right)} \end{align} 各層が独立なとき、全体としての尤度は、 \begin{gather} L \left(\boldsymbol{\theta}\right)=\prod_{k=1}^{K}L \left(\alpha_k,\beta\right) \quad \boldsymbol{\theta}= \left\{\begin{matrix}\alpha_1\\\vdots\\\alpha_K\\\beta\\\end{matrix}\right\} \end{gather} 対数尤度は、 \begin{align} l \left(\boldsymbol{\theta}\right)=\sum_{k=1}^{K}l \left(\alpha_k,\beta\right) \end{align} これを $\alpha_k$ で偏微分すると、 \begin{align} U_{\alpha_k} \left(\boldsymbol{\theta}\right)&=m_{1k}-n_{1k} \cdot \frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}-n_{0k} \cdot \frac{e^{\alpha_k}}{1+e^{\alpha_k}}\\ &=m_{1k}-n_{1k}\pi_{1k}-n_{0k}\pi_{0k} \end{align} 同様に、$\beta$ で偏微分すると、 \begin{align} U_\beta \left(\boldsymbol{\theta}\right)&=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)\\ &=\sum_{i=1}^{K} \left(a_k-n_{1k}\pi_{1k}\right) \end{align}

ヘッセ行列の成分の定義式より、 \begin{align} H_{\alpha_k} \left(\boldsymbol{\theta}\right)&=\frac{\partial}{\partial\alpha_k}U_{\alpha_k} \left(\boldsymbol{\theta}\right)\\ &=-n_{1k} \cdot \left[\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}- \left(\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)^2\right]-n_{2k} \cdot \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-n_{1k}\pi_{1k} \left(1-\pi_{1k}\right)-n_{0k}\pi_{0k} \left(1-\pi_{0k}\right) \end{align} \begin{align} H_\beta \left(\boldsymbol{\theta}\right)&=\frac{\partial}{\partial\beta}U_\beta \left(\boldsymbol{\theta}\right)\\ &=-\sum_{k=1}^{K}{n_{1k} \left[\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}- \left(\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)^2\right]}\\ &=-\sum_{k=1}^{K} \left[n_{1k}\pi_{1k} \left(1-\pi_{1k}\right)\right] \end{align} \begin{align} H_{\alpha_k\beta} \left(\boldsymbol{\theta}\right)&=\frac{\partial}{\partial\alpha_k}U_\beta \left(\boldsymbol{\theta}\right)=\frac{\partial}{\partial\beta}U_{\alpha_k} \left(\boldsymbol{\theta}\right)\\ &=-n_{1k} \left[\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}- \left(\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)^2\right]\\ &=-n_{1k}\pi_{1k} \left(1-\pi_{1k}\right) \end{align}

帰無仮説 $H_0:\beta=\beta_0=0$ のもとでの $\alpha_k$ のスコア関数は、 \begin{align} U_{\alpha_k} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=m_{1k}-n_{1k} \cdot \frac{e^{\alpha_k}}{1+e^{\alpha_k}}-n_{0k} \cdot \frac{e^{\alpha_k}}{1+e^{\alpha_k}}\\ &=m_{1k}- \left(n_{1k}+n_{0k}\right)\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\\ &=m_{1k}-N\frac{e^{\alpha_k}}{1+e^{\alpha_k}} \end{align} 最尤推定量の定義式 $U \left(\hat{\theta}\right)=0$ より、 \begin{gather} 0=m_{1k}-N\frac{e^{{\hat{\alpha}}_k}}{1+e^{{\hat{\alpha}}_k}}\\ \frac{e^{{\hat{\alpha}}_k}}{1+e^{{\hat{\alpha}}_k}}=\frac{m_{1k}}{N}\\ e^{{\hat{\alpha}}_k}=\frac{m_{1k}}{N} \left(1+e^{{\hat{\alpha}}_k}\right)\\ \left(1-\frac{m_{1k}}{N}\right)e^{{\hat{\alpha}}_k}=\frac{m_{1k}}{N}\\ e^{{\hat{\alpha}}_k}=\frac{m_{1k}}{m_{0k}}\\ {\hat{\alpha}}_k=\log{\frac{m_{1k}}{m_{0k}}} \end{gather} 同様に、帰無仮説のもとでの $\beta$ のスコア関数は、 \begin{align} U_\beta \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)\\ \end{align} スコア方程式 $U \left(\hat{\theta}\right)=0$ を求めると、 \begin{gather} 0=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{e^{{\hat{\alpha}}_k}}{1+e^{{\hat{\alpha}}_k}}\right)\\ 0=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{\frac{m_{1k}}{m_{2k}}}{1+\frac{m_{1k}}{m_{2k}}}\right)\\ 0=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{m_{1k}}{m_{2k}+m_{1k}}\right)\\ 0=\sum_{i=1}^{K} \left(a_k-\frac{n_{1k}m_{1k}}{N}\right) \end{gather}

帰無仮説 $H_0:\pi_{1k}=\pi_{0k}=\pi_k$ のもとでのヘッセ行列の成分は、 \begin{align} H_{\alpha_k} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=-n_{1k} \cdot \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]-n_{0k} \cdot \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-N_k \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-N_k \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-N_k\pi_k \left(1-\pi_k\right) \end{align} \begin{align} H_\beta \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=-\sum_{k=1}^{K}{n_{1k} \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]}\\ &=-\sum_{k=1}^{K}{n_{1k}\pi_k \left(1-\pi_k\right)} \end{align} \begin{align} H_{\alpha_k\beta} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=-n_{1k} \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-n_{1k}\pi_k \left(1-\pi_k\right) \end{align} 二項分布における期待情報行列 $\boldsymbol{I} \left(\boldsymbol{\theta}\right)=\boldsymbol{i} \left(\boldsymbol{\theta}\right)=-\boldsymbol{H} \left(\boldsymbol{\theta}\right)$ の成分は、 \begin{gather} I_{\alpha_k} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=N_k \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]=N_k\pi_k \left(1-\pi_k\right)\\ I_\beta \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=\sum_{k=1}^{K}{n_{1k} \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]}=\sum_{k=1}^{K}{n_{1k}\pi_k \left(1-\pi_k\right)}\\ I_{\alpha_k\beta} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=n_{1k} \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]=-n_{1k}\pi_k \left(1-\pi_k\right) \end{gather} この最尤推定量は、${\hat{\alpha}}_k=\log{\frac{m_{1k}}{m_{0k}}}$ を代入すると、 \begin{gather} I_{\alpha_k} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=N_k\frac{m_{1k}}{N_k} \left(1-\frac{m_{1k}}{N_k}\right)=\frac{m_{1k}m_{0k}}{N_k}\\ I_\beta \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=\sum_{k=1}^{K}{n_{1k}\frac{m_{1k}}{N_k} \left(1-\frac{m_{1k}}{N_k}\right)}=\sum_{k=1}^{K}\frac{n_{1k}m_{1k}m_{0k}}{N_k}\\ I_{\alpha_k\beta} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=n_{1k}\frac{m_{1k}}{N_k} \left(1-\frac{m_{1k}}{N_k}\right)=\frac{n_{1k}m_{1k}m_{0k}}{N_k} \end{gather} また、$k \neq l$ に対しては層が独立なため、 \begin{gather} I_{\alpha_k,\alpha_l} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=0 \end{gather} したがって、推定情報行列の成分は、 \begin{align} \boldsymbol{I} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)= \left[\begin{matrix}\boldsymbol{I}_\alpha \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)&\boldsymbol{I}_{\alpha\beta} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)\\\boldsymbol{I}_{\alpha\beta} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)^T&\boldsymbol{I}_\beta \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)\\\end{matrix}\right] \end{align} ただし、 \begin{align} \boldsymbol{I}_\alpha \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)=\mathrm{diag} \left\{\boldsymbol{I}_{\alpha_1} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right) \cdots \boldsymbol{I}_{\alpha_K} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)\right\} \end{align} は $K\times K$ 対角行列である。

逆行列 \begin{gather} \boldsymbol{I}_\beta \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)^{-1} \end{gather} の必要となる成分は、 逆行列に関する公式を用いると、 \begin{gather} \boldsymbol{I}_\beta \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)^{-1}=\frac{1}{\sum_{k=1}^{K}{\hat{V} \left(a_k\right)}}\\ \hat{V} \left(\hat{\beta}\right)=\sum_{k=1}^{K}{\hat{V} \left(a_k\right)} \end{gather} 結果として有効スコア検定 $\chi^2=\frac{{\hat{\beta}}^2}{\hat{V} \left(\hat{\beta}\right)}$ は、 \begin{align} \chi^2&=\frac{ \left[\sum_{k=1}^{K} \left\{a_k-\frac{n_{1k}m_{1k}}{N_k}\right\}\right]^2}{\sum_{k=1}^{K} \left[\frac{n_{1k}n_{0k}m_{1k}m_{0k}}{N_k^3}\right]}\\ &=\frac{ \left[\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle| H_0\right)\right]\right]^2}{\sum_{k=1}^{K}{\hat{V} \left(a_k\right)}} \end{align}

これは、層別解析におけるコクラン検定と等しい。また、この検定の計算を行うために局外パラメータ $ \left\{{\hat{\alpha}}_k\right\}$ の推定値について解く必要はない。

参考文献

  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.279-282
  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.298-300

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ