本稿では、層別解析にロジスティック・モデルを適用した場合の共通対数オッズ比の最尤推定について解説しています。回帰係数の有効スコア検定が層別解析に対するマンテル・ヘンツェル検定やコクラン検定と同値であることの証明が含まれます。
なお、閲覧にあたっては、以下の点にご注意ください。
- スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
- 曝露(発症)状況を表す右下の添え字は、「0」である場合($n_0,\pi_0$ など)や「2」である場合($n_2,\pi_2$ など)がありますが、どちらも「非曝露群(コントロール群)」を表しています。
- 漸近的な性質を用いる際は、①中心極限定理が成り立つ、②漸近分散を推定する際に、母数をその一致推定量で置き換えることができるということが成り立つと仮定しています。
層別化した分割表に対するロジスティック・モデル
マッチングなし・層化ありのコホート研究(超幾何分布モデル)において、各層の対数発症オッズ(発症確率のロジット)について、 \begin{gather} \log{ \left(\frac{\pi_{1k}}{1-\pi_{1k}}\right)}=\alpha_k+\beta_k\Leftrightarrow\frac{\pi_{1k}}{1-\pi_{1k}}=e^{\alpha_k+\beta_k}\\ \log{ \left(\frac{\pi_{0k}}{1-\pi_{0k}}\right)}=\alpha_k\Leftrightarrow\frac{\pi_{0k}}{1-\pi_{0k}}=e^{\alpha_k} \end{gather} が成り立つとする。 このとき、曝露群・非曝露群の発症確率は、ロジスティック関数として、 \begin{gather} \pi_{1k}=\frac{e^{\alpha_k+\beta_k}}{1+e^{\alpha_k+\beta_k}} \quad 1-\pi_{1k}=\frac{1}{1+e^{\alpha_k+\beta_k}}\\ \pi_{0k}=\frac{e^{\alpha_k}}{1+e^{\alpha_k}} \quad 1-\pi_{0k}=\frac{1}{1+e^{\alpha_k}} \end{gather} で与えられる。 また、各層の発症オッズ比 $\varphi_k={\mathrm{OR}}_k$ は、 \begin{align} \log{\varphi_k}=\beta_k\Leftrightarrow\varphi_k=e^{\beta_k} \end{align} で与えられる。
尤度のモデルとして超幾何分布モデルを仮定すると、単層の時と同様の流れで、第 $k$ 層目の条件付き超幾何尤度は、 \begin{align} L \left(\varphi_k\right)=\frac{{}_{n_{1k}}C_{a_k} \cdot {}_{n_{0k}}C_{m_{1k}-a_k} \cdot \varphi_k^{a_k}}{\sum_{i=a_{lk}}^{a_{uk}}{{}_{n_{1k}}C_i \cdot {}_{n_{0k}}C_{m_{1k}-i} \cdot \varphi_k^i}} \end{align} 表記の省略のため、次の \begin{align} C_{ik}={}_{n_{1k}}C_i \cdot {}_{n_{0k}}C_{m_{1k}-i} \end{align} という文字を用いると、 $\beta_k=\log{\varphi_k}$ より、対数尤度 $l \left(\theta\right)=\log{L \left(\theta\right)}$ は、 \begin{align} l \left(\varphi\right)&=\log{ \left(C_{ik} \cdot \varphi_k^{a_k}\right)}-\log{ \left(\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot \varphi_k^i}\right)}\\ &=\log{C_{ik}}+a_k\log{\varphi_k}-\log{ \left(\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot \varphi_k^i}\right)}\\ l \left(\beta_k\right)&=a_k\beta_k-\log{ \left(\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot \varphi_k^i}\right)}+C \end{align} スコア関数 $U \left(\theta\right)=\frac{\partial}{\partial\theta}l \left(\theta\right)$ は、この対数尤度関数を $\beta_k$ で偏微分して、 \begin{align} U \left(\beta_k\right)&=a_k-\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\\ &=a_k-E \left(a_k\middle|\beta_k\right) \end{align} 観測情報量 $i \left(\beta_k\right)=-\frac{\partial^2}{\partial\beta^2}l \left(\beta_k\right)$ は、 \begin{align} i \left(\beta_k\right)&=\frac{ \left[\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}\right] \left[\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i^2e^{i\beta_k}}\right]- \left[\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}\right]^2}{ \left[\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}\right]^2}\\ &=\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i^2e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}- \left[\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\right]^2 \end{align} ここで、以下が成り立つので、 \begin{gather} E \left(a_k^2\middle|\beta_k\right)=\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i^2e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\\ \left\{E \left(a_k\middle|\beta_k\right)\right\}^2= \left[\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\right]^2 \end{gather} 観測情報量および期待情報量は \begin{align} i \left(\beta_k\right)=I \left(\beta_k\right)=E \left(a_k^2\middle|\beta_k\right)- \left\{E \left(a_k\middle|\beta_k\right)\right\}^2=V \left(a_k\middle|\beta_k\right) \end{align}
ここで、全層を通じた共通オッズ比が存在する \begin{gather} \beta_1= \cdots =\beta_K=\beta \end{gather} という仮定もと、 各層の尤度は、1つのパラメータ \begin{gather} \varphi=e^\beta \end{gather} のみを含むので、 各層が得られる尤度が統計的に独立であるとき、全体としての尤度関数は、$K$ 個の各層における超幾何尤度の積 \begin{align} L \left(\beta\right)=\prod_{i=1}^{K}L \left(\beta_k\right) \end{align} となる。 したがって、対数の性質 $\log{\prod_{i=1}^{K}f \left(x_k\right)}=\sum_{k=1}^{K}\log{f \left(x_k\right)}$ から、総スコア関数は、 \begin{align} U \left(\beta\right)&=\sum_{i=1}^{K}U \left(\beta_k\right)\\ &=\sum_{k=1}^{K} \left[a_k-\frac{\sum_{i=a_l}^{a_u}{C_{ik} \cdot i e^{i\beta}}}{\sum_{i=a_l}^{a_u}{C_{ik} \cdot e^{i\beta}}}\right]\\ &=\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle|\beta\right)\right] \end{align} 同様に、総観測情報量および総期待情報量は \begin{align} i \left(\beta\right)&=I \left(\beta\right)\\ &=\sum_{i=1}^{K}i \left(\beta_k\right)\\ &=\sum_{k=1}^{K} \left[\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i^2e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}- \left(\frac{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot i e^{i\beta_k}}}{\sum_{i=a_{lk}}^{a_{uk}}{C_{ik} \cdot e^{i\beta_k}}}\right)^2\right]\\ &=\sum_{k=1}^{K} \left[E \left(a_k^2\middle|\beta\right)- \left\{E \left(a_k\middle|\beta\right)\right\}^2\right]\\ &=\sum_{k=1}^{K}{V \left(a_k\middle|\beta\right)} \end{align}
これは、帰無仮説 $H_0:\beta=\beta_0=0$ のもとでは、 \begin{align} U \left(\beta_0\right)&=\sum_{k=1}^{K} \left[a_k-\frac{\sum_{i=a_l}^{a_u}{C_{ik} \cdot i}}{\sum_{i=a_l}^{a_u}C_{ik}}\right]\\ &=\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle|\beta_0\right)\right] \end{align} \begin{align} i \left(\beta\right)&=I \left(\beta\right)\\ &=\sum_{k=1}^{K} \left[E \left(a_k^2\middle|\beta_0\right)- \left\{E \left(a_k\middle|\beta_0\right)\right\}^2\right]\\ &=\sum_{k=1}^{K}{V \left(a_k\middle|\beta_0\right)} \end{align}
有効スコア検定
有効スコア検定の検定統計量 $\chi^2=\frac{ \left\{U \left(\beta_0\right)\right\}^2}{I \left(\beta_0\right)}$ は、 \begin{align} \chi_S^2=\frac{ \left[\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle|\beta_0\right)\right]\right]^2}{\sum_{k=1}^{K}{V \left(a_k\middle|\beta_0\right)}} \end{align} これは、層別解析におけるマンテル・ヘンツェル検定と等しいことが分かる。スコアにもとづく推定
また、共通対数オッズ比のスコアにもとづく層調整済み推定値は、スコアにもとづく推定値の公式 ${\hat{\theta}}_0=\frac{U \left(\theta_0\right)}{I \left(\theta_0\right)}$ より、 \begin{align} \hat{\beta}&=\frac{\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle|\beta_0\right)\right]}{\sum_{k=1}^{K}{V \left(a_k\middle|\beta_0\right)}}\\ &=\frac{\sum_{k=1}^{K} \left[a_k-\frac{m_{1k}n_{1k}}{N_k}\right]}{\sum_{k=1}^{K} \left[\frac{m_{1k}m_{0k}n_{1k}n_{0k}}{N_k^2 \left(N_k-1\right)}\right]} \end{align} また、スコアにもとづく推定値の分散の公式 $V \left({\hat{\theta}}_0\right)=\frac{1}{I \left(\theta_0\right)}$ より、 \begin{align} V \left(\hat{\beta}\right)&=\frac{1}{\sum_{k=1}^{K}{V \left(a_k\middle|\beta_0\right)}}\\ &=\frac{1}{\sum_{k=1}^{K} \left[\frac{m_{1k}m_{0k}n_{1k}n_{0k}}{N_k^2 \left(N_k-1\right)}\right]} \end{align}
積二項モデルにもとづく考え方
マッチングなし・層化ありのコホート研究(積二項モデル)に対しても、同様にロジスティック・モデルを仮定することができる。この場合もやはり、対数オッズ比が回帰係数と等しい \begin{gather} \beta_k=\log{\varphi_k} \end{gather} とするモデルである。
独立した複数の層に対する積二項尤度ロジスティック・モデルと帰無仮説 すべての表において関連性が存在しない \begin{align} H_0:\beta=\beta_0=0\Leftrightarrow H_0:\pi_{1k}=\pi_{2k}=\pi_k \end{align} を仮定する。
積二項尤度の基本式より、$k$ 番目の層について、 \begin{align} L \left(\pi_{1k},\pi_{0k}\right)={}_{n_{1k}}C_{a_k}\pi_{1k}^{a_k} \left(1-\pi_{1k}\right)^{c_k} \cdot {}_{n_{0k}}C_{b_k}\pi_{0k}^{b_k} \left(1-\pi_{0k}\right)^{d_k} \end{align} 対数尤度関数の定義式 $l \left(\theta,\boldsymbol{x}\right)=\log{L \left(\theta,\boldsymbol{x}\right)}$ より、定数項を無視すると、 \begin{align} l \left(\pi_{1k},\pi_{0k}\right)&=\log{ \left[{}_{n_{1k}}C_{a_k}\pi_{1k}^{a_k} \left(1-\pi_{1k}\right)^{c_k} \cdot {}_{n_{0k}}C_{b_k}\pi_{0k}^{b_k} \left(1-\pi_{0k}\right)^{d_k}\right]}\\ &=\log{{}_{n_{1k}}C_{a_k}}+\alpha_k\log{\pi_{1k}}+c_k\log{ \left(1-\pi_{1k}\right)}+\log{{}_{n_{0k}}C_{b_k}}+b_k\log{\pi_{0k}}+d_k\log{ \left(1-\pi_{0k}\right)}\\ &=a_k\log{\pi_{1k}}+c_k\log{ \left(1-\pi_{1k}\right)}+b_k\log{\pi_{0k}}+d_k\log{ \left(1-\pi_{0k}\right)} \end{align} この尤度をパラメータ $\alpha_k,\beta$ で表すと、 \begin{align} l \left(\alpha_k,\beta\right)&=a_k\log{ \left(\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)}+c_k\log{ \left(\frac{1}{1+e^{\alpha_k+\beta}}\right)}+b_k\log{ \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)}+d_k\log{ \left(\frac{1}{1+e^{\alpha_k}}\right)}\\ &=a_k\log{ \left(e^{\alpha_k+\beta}\right)}-a_k\log{ \left(1+e^{\alpha_k+\beta}\right)}-c_k\log{ \left(1+e^{\alpha_k+\beta}\right)}+b_k\log{ \left(e^{\alpha_k}\right)}-b_k\log{ \left(1+e^{\alpha_k}\right)}-d_k\log{ \left(1+e^{\alpha_k}\right)}\\ &=a_k\log{ \left(e^{\alpha_k+\beta}\right)}- \left(a_k+c_k\right)\log{ \left(1+e^{\alpha_k+\beta}\right)}+b_k\log{ \left(e^{\alpha_k}\right)}- \left(b_k+d_k\right)\log{ \left(1+e^{\alpha_k}\right)}\\ &=a_k \left(\alpha_k+\beta\right)-n_{1k}\log{ \left(1+e^{\alpha_k+\beta}\right)}+b_k\alpha_k-n_{0k}\log{ \left(1+e^{\alpha_k}\right)}\\ &= \left(a_k+b_k\right)\alpha_k+a_k\beta-n_{1k}\log{ \left(1+e^{\alpha_k+\beta}\right)}-n_{0k}\log{ \left(1+e^{\alpha_k}\right)}\\ &=m_{1k}\alpha_k+a_k\beta-n_{1k}\log{ \left(1+e^{\alpha_k+\beta}\right)}-n_{0k}\log{ \left(1+e^{\alpha_k}\right)} \end{align} 各層が独立なとき、全体としての尤度は、 \begin{gather} L \left(\boldsymbol{\theta}\right)=\prod_{k=1}^{K}L \left(\alpha_k,\beta\right) \quad \boldsymbol{\theta}= \left\{\begin{matrix}\alpha_1\\\vdots\\\alpha_K\\\beta\\\end{matrix}\right\} \end{gather} 対数尤度は、 \begin{align} l \left(\boldsymbol{\theta}\right)=\sum_{k=1}^{K}l \left(\alpha_k,\beta\right) \end{align} これを $\alpha_k$ で偏微分すると、 \begin{align} U_{\alpha_k} \left(\boldsymbol{\theta}\right)&=m_{1k}-n_{1k} \cdot \frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}-n_{0k} \cdot \frac{e^{\alpha_k}}{1+e^{\alpha_k}}\\ &=m_{1k}-n_{1k}\pi_{1k}-n_{0k}\pi_{0k} \end{align} 同様に、$\beta$ で偏微分すると、 \begin{align} U_\beta \left(\boldsymbol{\theta}\right)&=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)\\ &=\sum_{i=1}^{K} \left(a_k-n_{1k}\pi_{1k}\right) \end{align}
ヘッセ行列の成分の定義式より、 \begin{align} H_{\alpha_k} \left(\boldsymbol{\theta}\right)&=\frac{\partial}{\partial\alpha_k}U_{\alpha_k} \left(\boldsymbol{\theta}\right)\\ &=-n_{1k} \cdot \left[\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}- \left(\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)^2\right]-n_{2k} \cdot \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-n_{1k}\pi_{1k} \left(1-\pi_{1k}\right)-n_{0k}\pi_{0k} \left(1-\pi_{0k}\right) \end{align} \begin{align} H_\beta \left(\boldsymbol{\theta}\right)&=\frac{\partial}{\partial\beta}U_\beta \left(\boldsymbol{\theta}\right)\\ &=-\sum_{k=1}^{K}{n_{1k} \left[\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}- \left(\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)^2\right]}\\ &=-\sum_{k=1}^{K} \left[n_{1k}\pi_{1k} \left(1-\pi_{1k}\right)\right] \end{align} \begin{align} H_{\alpha_k\beta} \left(\boldsymbol{\theta}\right)&=\frac{\partial}{\partial\alpha_k}U_\beta \left(\boldsymbol{\theta}\right)=\frac{\partial}{\partial\beta}U_{\alpha_k} \left(\boldsymbol{\theta}\right)\\ &=-n_{1k} \left[\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}- \left(\frac{e^{\alpha_k+\beta}}{1+e^{\alpha_k+\beta}}\right)^2\right]\\ &=-n_{1k}\pi_{1k} \left(1-\pi_{1k}\right) \end{align}
帰無仮説 $H_0:\beta=\beta_0=0$ のもとでの $\alpha_k$ のスコア関数は、 \begin{align} U_{\alpha_k} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=m_{1k}-n_{1k} \cdot \frac{e^{\alpha_k}}{1+e^{\alpha_k}}-n_{0k} \cdot \frac{e^{\alpha_k}}{1+e^{\alpha_k}}\\ &=m_{1k}- \left(n_{1k}+n_{0k}\right)\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\\ &=m_{1k}-N\frac{e^{\alpha_k}}{1+e^{\alpha_k}} \end{align} 最尤推定量の定義式 $U \left(\hat{\theta}\right)=0$ より、 \begin{gather} 0=m_{1k}-N\frac{e^{{\hat{\alpha}}_k}}{1+e^{{\hat{\alpha}}_k}}\\ \frac{e^{{\hat{\alpha}}_k}}{1+e^{{\hat{\alpha}}_k}}=\frac{m_{1k}}{N}\\ e^{{\hat{\alpha}}_k}=\frac{m_{1k}}{N} \left(1+e^{{\hat{\alpha}}_k}\right)\\ \left(1-\frac{m_{1k}}{N}\right)e^{{\hat{\alpha}}_k}=\frac{m_{1k}}{N}\\ e^{{\hat{\alpha}}_k}=\frac{m_{1k}}{m_{0k}}\\ {\hat{\alpha}}_k=\log{\frac{m_{1k}}{m_{0k}}} \end{gather} 同様に、帰無仮説のもとでの $\beta$ のスコア関数は、 \begin{align} U_\beta \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)\\ \end{align} スコア方程式 $U \left(\hat{\theta}\right)=0$ を求めると、 \begin{gather} 0=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{e^{{\hat{\alpha}}_k}}{1+e^{{\hat{\alpha}}_k}}\right)\\ 0=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{\frac{m_{1k}}{m_{2k}}}{1+\frac{m_{1k}}{m_{2k}}}\right)\\ 0=\sum_{i=1}^{K} \left(a_k-n_{1k} \cdot \frac{m_{1k}}{m_{2k}+m_{1k}}\right)\\ 0=\sum_{i=1}^{K} \left(a_k-\frac{n_{1k}m_{1k}}{N}\right) \end{gather}
帰無仮説 $H_0:\pi_{1k}=\pi_{0k}=\pi_k$ のもとでのヘッセ行列の成分は、 \begin{align} H_{\alpha_k} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=-n_{1k} \cdot \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]-n_{0k} \cdot \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-N_k \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-N_k \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-N_k\pi_k \left(1-\pi_k\right) \end{align} \begin{align} H_\beta \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=-\sum_{k=1}^{K}{n_{1k} \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]}\\ &=-\sum_{k=1}^{K}{n_{1k}\pi_k \left(1-\pi_k\right)} \end{align} \begin{align} H_{\alpha_k\beta} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)&=-n_{1k} \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]\\ &=-n_{1k}\pi_k \left(1-\pi_k\right) \end{align} 二項分布における期待情報行列 $\boldsymbol{I} \left(\boldsymbol{\theta}\right)=\boldsymbol{i} \left(\boldsymbol{\theta}\right)=-\boldsymbol{H} \left(\boldsymbol{\theta}\right)$ の成分は、 \begin{gather} I_{\alpha_k} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=N_k \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]=N_k\pi_k \left(1-\pi_k\right)\\ I_\beta \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=\sum_{k=1}^{K}{n_{1k} \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]}=\sum_{k=1}^{K}{n_{1k}\pi_k \left(1-\pi_k\right)}\\ I_{\alpha_k\beta} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=n_{1k} \left[\frac{e^{\alpha_k}}{1+e^{\alpha_k}}- \left(\frac{e^{\alpha_k}}{1+e^{\alpha_k}}\right)^2\right]=-n_{1k}\pi_k \left(1-\pi_k\right) \end{gather} この最尤推定量は、${\hat{\alpha}}_k=\log{\frac{m_{1k}}{m_{0k}}}$ を代入すると、 \begin{gather} I_{\alpha_k} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=N_k\frac{m_{1k}}{N_k} \left(1-\frac{m_{1k}}{N_k}\right)=\frac{m_{1k}m_{0k}}{N_k}\\ I_\beta \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=\sum_{k=1}^{K}{n_{1k}\frac{m_{1k}}{N_k} \left(1-\frac{m_{1k}}{N_k}\right)}=\sum_{k=1}^{K}\frac{n_{1k}m_{1k}m_{0k}}{N_k}\\ I_{\alpha_k\beta} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=n_{1k}\frac{m_{1k}}{N_k} \left(1-\frac{m_{1k}}{N_k}\right)=\frac{n_{1k}m_{1k}m_{0k}}{N_k} \end{gather} また、$k \neq l$ に対しては層が独立なため、 \begin{gather} I_{\alpha_k,\alpha_l} \left(\boldsymbol{\theta}_\boldsymbol{0}\right)=0 \end{gather} したがって、推定情報行列の成分は、 \begin{align} \boldsymbol{I} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)= \left[\begin{matrix}\boldsymbol{I}_\alpha \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)&\boldsymbol{I}_{\alpha\beta} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)\\\boldsymbol{I}_{\alpha\beta} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)^T&\boldsymbol{I}_\beta \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)\\\end{matrix}\right] \end{align} ただし、 \begin{align} \boldsymbol{I}_\alpha \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)=\mathrm{diag} \left\{\boldsymbol{I}_{\alpha_1} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right) \cdots \boldsymbol{I}_{\alpha_K} \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)\right\} \end{align} は $K\times K$ 対角行列である。
逆行列 \begin{gather} \boldsymbol{I}_\beta \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)^{-1} \end{gather} の必要となる成分は、 逆行列に関する公式を用いると、 \begin{gather} \boldsymbol{I}_\beta \left({\hat{\boldsymbol{\theta}}}_\boldsymbol{0}\right)^{-1}=\frac{1}{\sum_{k=1}^{K}{\hat{V} \left(a_k\right)}}\\ \hat{V} \left(\hat{\beta}\right)=\sum_{k=1}^{K}{\hat{V} \left(a_k\right)} \end{gather} 結果として有効スコア検定 $\chi^2=\frac{{\hat{\beta}}^2}{\hat{V} \left(\hat{\beta}\right)}$ は、 \begin{align} \chi^2&=\frac{ \left[\sum_{k=1}^{K} \left\{a_k-\frac{n_{1k}m_{1k}}{N_k}\right\}\right]^2}{\sum_{k=1}^{K} \left[\frac{n_{1k}n_{0k}m_{1k}m_{0k}}{N_k^3}\right]}\\ &=\frac{ \left[\sum_{k=1}^{K} \left[a_k-E \left(a_k\middle| H_0\right)\right]\right]^2}{\sum_{k=1}^{K}{\hat{V} \left(a_k\right)}} \end{align}
これは、層別解析におけるコクラン検定と等しい。また、この検定の計算を行うために局外パラメータ $ \left\{{\hat{\alpha}}_k\right\}$ の推定値について解く必要はない。
参考文献
- ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.279-282
- ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.298-300
0 件のコメント:
コメントを投稿