生存時間分布のパラメトリックモデル②:ワイブル分布モデル

公開日: 更新日:

【2022年12月1週】 【A000】生物統計学 【A051】コホート研究 【A100】生存時間分析 【A101】生存関数の推定

この記事をシェアする
  • B!
サムネイル画像

本稿では、生存時間分布のパラメトリックモデルのひとつであるワイブル分布モデルについて重要事項をまとめています。このモデルは、ハザードが時間経過と共に変化することを仮定したモデルで、パラメトリックな比例ハザードモデルです。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
  • 曝露(発症)状況を表す右下の添え字は、「0」である場合($n_0,\pi_0$ など)や「2」である場合($n_2,\pi_2$ など)がありますが、どちらも「非曝露群(コントロール群)」を表しています。
  • 漸近的な性質を用いる際は、①中心極限定理が成り立つ、②漸近分散を推定する際に、母数をその一致推定量で置き換えることができるということが成り立つと仮定しています。
  • デルタ法を用いる際、剰余項(2次の項)が漸近的に無視できる($0$に確率収束する)と仮定しています。

生存時間分布のワイブル分布モデル

ハザード関数が、率パラメータ $\mu$、形状パラメータ $\gamma$、時間 $t$ の関数 \begin{gather} \lambda \left(t\right)=\mu\gamma t^{\gamma-1}\\ 0 \lt \mu \quad 0 \lt \gamma \end{gather} となるモデルを ワイブル分布モデル Weibull distribution models と呼ぶ($\gamma=1$ の場合は指数モデルと等しい)。
生存関数と確率密度関数は、 \begin{gather} S \left(t\right)=\mathrm{exp} \left(-\mu t^\gamma\right)\\ f \left(t\right)=\mu\gamma t^{\gamma-1} \cdot \mathrm{exp} \left(-\mu t^\gamma\right) \end{gather} で与えられる。 なお、率パラメータを共変量ベクトルの関数 \begin{align} \mu=\mathrm{exp} \left(\alpha+\boldsymbol{x}^\boldsymbol{T}\boldsymbol{\beta}\right) \end{align} とすることもある。

証明:ワイブルモデルの生存関数とイベント密度関数

証明

累積ハザード関数 $\Lambda \left(t\right)=\int_{0}^{t}\lambda \left(u\right)du$ は、 \begin{align} \Lambda \left(t\right)&=\int_{0}^{t}{\mu\gamma u^{\gamma-1}du}\\ &= \left[\mu u^\gamma\right]_0^t\\ &=\mu t^\gamma \end{align} 累積ハザード関数と累積生存関数の関係 $S \left(t\right)=\mathrm{exp} \left\{-\Lambda \left(t\right)\right\}$ より、 \begin{align} S \left(t\right)=\mathrm{exp} \left(-\mu t^\gamma\right) \end{align} イベント発生の確率密度関数、ハザード関数、累積生存関数の関係より、 \begin{align} f \left(t\right)&=\lambda \left(t\right) \cdot S \left(t\right)\\ &=\mu\gamma t^{\gamma-1} \cdot \mathrm{exp} \left(-\mu t^\gamma\right) \end{align} $\blacksquare$

【定理】率・形状パラメータの最尤推定①:率パラメータが定数のとき

【定理】
率・形状パラメータの最尤推定①:率パラメータが定数のとき
MLE of Scale and Shape Parameter

パラメータベクトルを \begin{align} \boldsymbol{\theta}= \left(\begin{matrix}\mu\\\gamma\\\end{matrix}\right) \end{align} とすると、 〔1〕スコア関数 \begin{gather} U_\mu \left(\boldsymbol{\theta}\right)=\frac{D}{\mu}-\sum_{i=1}^{N}t_i^\gamma\\ U_\gamma \left(\boldsymbol{\theta}\right)=\frac{D}{\gamma}+\sum_{i=1}^{N}\delta_i \cdot \log{t_i}-\mu\sum_{i=1}^{N}{t_i^\gamma \cdot \log{t_i}} \end{gather} 〔2〕期待情報行列の成分 \begin{gather} I_\mu \left(\boldsymbol{\theta}\right)=\frac{D}{\mu^2}\\ I_\gamma \left(\boldsymbol{\theta}\right)=\frac{D}{\gamma^2}+\mu\sum_{i=1}^{N}{t_i^\gamma \left(\log{t_i}\right)^2}\\ I_{\mu\gamma} \left(\boldsymbol{\theta}\right)=\sum_{i=1}^{N}{t_i^\gamma \cdot \log{t_i}} \end{gather} 〔3〕対数生存関数の最尤推定量の分散
期待情報行列の逆行列によって求めたパラメータの推定量の漸近分散と共分散をそれぞれ次のようにおくとき、 \begin{align} V \left(\hat{\mu}\right)=\sigma_\mu^2 \quad V \left(\hat{\gamma}\right)=\sigma_\gamma^2 \quad \mathrm{Cov} \left(\hat{\mu},\hat{\gamma}\right)=\sigma_{\mu\gamma} \end{align} 対数生存関数の最尤推定量の分散は、 \begin{align} V \left[\log{\hat{S} \left(t\right)}\right]=t^{2\gamma}\sigma_\mu^2+\mu^2t^{2\gamma} \left(\log{t}\right)^2\sigma_\gamma^2+2\sigma_{\mu\gamma}\mu t^{2\gamma}\log{t} \end{align}

証明:尤度関数とスコア関数①

証明

パラメータの尤度関数の公式 $L \left(\boldsymbol{\theta}\right)=\prod_{i=1}^{N}{ \left[\lambda \left(t_i\right)\right]^{\delta_i} \cdot S \left(t_i\right)}$ より、 \begin{align} L \left(\boldsymbol{\theta}\right)=\prod_{i=1}^{N}{ \left(\mu\gamma t_i^{\gamma-1}\right)^{\delta_i} \cdot \mathrm{exp} \left(-\mu t_i^\gamma\right)} \end{align} 対数尤度関数 $l \left(\theta,\boldsymbol{x}\right)=\log{L \left(\theta,\boldsymbol{x}\right)}$ は、 \begin{align} l \left(\boldsymbol{\theta}\right)&=\sum_{i=1}^{N} \left(\delta_i\log{\mu\gamma t_i^{\gamma-1}}-\mu t_i^\gamma\right)\\ &=\sum_{i=1}^{N} \left[\delta_i \left\{\log{\mu}+\log{\gamma}+ \left(\gamma-1\right)\log{t_i}\right\}-\mu t_i^\gamma\right]\\ &=\log{\mu}\sum_{i=1}^{N}\delta_i+\log{\gamma}\sum_{i=1}^{N}\delta_i+ \left(\gamma-1\right)\sum_{i=1}^{N}\delta_i\log{t_i}-\mu\sum_{i=1}^{N}t_i^\gamma\\ &=D\log{\mu}+d_{\bullet }\log{\gamma}+ \left(\gamma-1\right)\sum_{i=1}^{N}\delta_i\log{t_i}-\mu\sum_{i=1}^{N}t_i^\gamma \end{align} (a)率パラメータ $\mu$ に関するスコア関数は、 \begin{align} U_\mu \left(\boldsymbol{\theta}\right)=\frac{D}{\mu}-\sum_{i=1}^{N}t_i^\gamma \end{align} (b)形状パラメータ $\gamma$ に関するスコア関数は、指数関数の微分公式 $\frac{d}{dx}a^x=a^x\log{a}$ より、 \begin{align} U_\gamma \left(\boldsymbol{\theta}\right)=\frac{D}{\gamma}+\sum_{i=1}^{N}\delta_i \cdot \log{t_i}-\mu\sum_{i=1}^{N}{t_i^\gamma \cdot \log{t_i}} \end{align} *これら2本の尤度方程式は、一般的には解けないので、ニュートン・ラフソン法による反復計算によって解を求める。 $\blacksquare$

証明:期待情報行列①

証明

期待情報行列の成分 $\boldsymbol{I} \left(\boldsymbol{\theta}\right)=\boldsymbol{i} \left(\boldsymbol{\theta}\right)=-\boldsymbol{H} \left(\boldsymbol{\theta}\right)$ は、 \begin{align} I_\mu \left(\boldsymbol{\theta}\right)&=-\frac{\partial}{\partial\mu}U_\mu \left(\boldsymbol{\theta}\right)\\ &=\frac{D}{\mu^2} \end{align} \begin{align} I_\gamma \left(\boldsymbol{\theta}\right)&=-\frac{\partial}{\partial\gamma}U_\gamma \left(\boldsymbol{\theta}\right)\\ &=\frac{D}{\gamma^2}+\mu\sum_{i=1}^{N}{t_i^\gamma \left(\log{t_i}\right)^2} \end{align} \begin{align} I_{\mu\gamma} \left(\boldsymbol{\theta}\right)&=-\frac{\partial}{\partial\mu}U_\gamma \left(\boldsymbol{\theta}\right)\\ &=\sum_{i=1}^{N}{t_i^\gamma \cdot \log{t_i}} \end{align} $\blacksquare$

証明:推定対数生存関数の分散

証明

期待情報行列の逆行列によって求めたパラメータの推定量の漸近分散と共分散をそれぞれ \begin{align} V \left(\hat{\mu}\right)=\sigma_\mu^2 \quad V \left(\hat{\gamma}\right)=\sigma_\gamma^2 \quad \mathrm{Cov} \left(\hat{\mu},\hat{\gamma}\right)=\sigma_{\mu\gamma} \end{align} とする。 最尤推定量の漸近的な性質より、 \begin{align} \hat{\mu} \sim \mathrm{N} \left(\mu,\sigma_\mu^2\right) \quad \hat{\gamma} \sim \mathrm{N} \left(\gamma,\sigma_\gamma^2\right) \end{align} 最尤推定量ベクトルを \begin{align} \hat{\boldsymbol{\theta}}= \left(\begin{matrix}\hat{\mu}\\\hat{\gamma}\\\end{matrix}\right) \end{align} 期待値ベクトルを \begin{align} \boldsymbol{\theta}= \left(\begin{matrix}\mu\\\gamma\\\end{matrix}\right) \end{align} 分散・共分散行列を \begin{align} \boldsymbol{\Omega}= \left[\begin{matrix}\sigma_\mu^2&\sigma_{\mu\gamma}\\\sigma_{\mu\gamma}&\sigma_\gamma^2\\\end{matrix}\right] \end{align} として、 \begin{gather} G \left(\boldsymbol{\theta}\right)=\log{S \left(t\right)}=-\mu t^\gamma\\ G \left(\hat{\boldsymbol{\theta}}\right)=\log{\hat{S} \left(t\right)}=-\hat{\mu}t^{\hat{\gamma}} \end{gather} と変数変換する。 多変量のデルタ法を用いて $G \left(\boldsymbol{\theta}\right)$ を期待値 $E \left(\hat{\boldsymbol{\theta}}\right)=\boldsymbol{\theta}$ まわりでテイラー展開すると、偏導関数ベクトルは、 \begin{align} \boldsymbol{H} \left(\boldsymbol{\theta}\right)= \left(\begin{matrix}\frac{G \left(\boldsymbol{\theta}\right)}{\partial\mu}\\\frac{G \left(\boldsymbol{\theta}\right)}{\partial\gamma}\\\end{matrix}\right)= \left[\begin{matrix}-t^\gamma\\-\mu t^\gamma\log{t}\\\end{matrix}\right] \end{align} 多変量のデルタ法の期待値と分散の公式より、 \begin{align} E \left[G \left(\hat{\boldsymbol{\theta}}\right)\right]\cong G \left(\boldsymbol{\theta}\right)=-\mu t^\gamma \end{align} \begin{align} V \left[G \left(\hat{\boldsymbol{\theta}}\right)\right]&= \left[\begin{matrix}-t^\gamma&-\mu t^\gamma\log{t}\\\end{matrix}\right] \left[\begin{matrix}\sigma_\mu^2&\sigma_{\mu\gamma}\\\sigma_{\mu\gamma}&\sigma_\gamma^2\\\end{matrix}\right] \left[\begin{matrix}-t^\gamma\\-\mu t^\gamma\log{t}\\\end{matrix}\right]\\ &= \left[\begin{matrix}-t^\gamma&-\mu t^\gamma\log{t}\\\end{matrix}\right] \left[\begin{matrix}-t^\gamma\sigma_\mu^2-\sigma_{\mu\gamma} \cdot \mu t^\gamma\log{t}\\-t^\gamma\sigma_{\mu\gamma}-\sigma_\gamma^2 \cdot \mu t^\gamma\log{t}\\\end{matrix}\right]\\ V \left[\log{\hat{S} \left(t\right)}\right]&=t^{2\gamma}\sigma_\mu^2+\sigma_{\mu\gamma} \cdot \mu t^{2\gamma}\log{t}+\sigma_{\mu\gamma} \cdot \mu t^{2\gamma}\log{t}+\sigma_\gamma^2 \cdot \mu^2t^{2\gamma} \left(\log{t}\right)^2\\ &=t^{2\gamma}\sigma_\mu^2+\mu^2t^{2\gamma} \left(\log{t}\right)^2\sigma_\gamma^2+2\sigma_{\mu\gamma}\mu t^{2\gamma}\log{t} \end{align} $\blacksquare$

【定理】率・形状パラメータの最尤推定②:率パラメータが共変量ベクトルの関数のとき

【定理】
率・形状パラメータの最尤推定②:率パラメータが共変量ベクトルの関数のとき
MLE of Scale and Shape parameter: When Scale Parameter Depends on Covariates

率パラメータが共変量ベクトル $\boldsymbol{x}$ の関数であり、 \begin{align} \mu=\mathrm{exp} \left(\alpha+\boldsymbol{x}^\boldsymbol{T}\boldsymbol{\beta}\right) \end{align} の形で与えられると仮定する。 パラメータベクトルを \begin{align} \boldsymbol{\theta}= \left(\begin{matrix}\gamma\\\alpha\\\boldsymbol{\beta}\\\end{matrix}\right) \quad \boldsymbol{\beta}= \left(\begin{matrix}\beta_1\\\vdots\\\beta_p\\\end{matrix}\right) \end{align} とすると、 〔1〕スコア関数 \begin{gather} U_\alpha \left(\boldsymbol{\theta}\right)=D-\sum_{i=1}^{N}{t_i^\gamma\mu_i}\\ U_{\beta_k} \left(\boldsymbol{\theta}\right)=\sum_{i=1}^{N}{x_{ik} \left(\delta_i-t_i^\gamma \cdot \mu_i\right)}\\ U_\gamma \left(\boldsymbol{\theta}\right)=\frac{D}{\gamma}+\sum_{i=1}^{N}\delta_i\log{t_i}-\sum_{i=1}^{N}{\mu_it_i^\gamma\log{t_i}} \end{gather} 〔2〕期待情報行列の成分 \begin{gather} I_\alpha \left(\boldsymbol{\theta}\right)=\sum_{i=1}^{N}{t_i^\gamma\mu_i}\\ I_{\alpha\gamma} \left(\boldsymbol{\theta}\right)=I_{\gamma\alpha} \left(\boldsymbol{\theta}\right)=\sum_{i=1}^{N}{t_i^\gamma\log{t_i}\mu_i}\\ I_{\alpha\beta_k} \left(\boldsymbol{\theta}\right)=I_{\beta_k\alpha} \left(\boldsymbol{\theta}\right)=\sum_{i=1}^{N}{t_i^\gamma x_{ik}\mu_i}\\ I_{\beta_k} \left(\boldsymbol{\theta}\right)=\sum_{i=1}^{N}{t_i^\gamma x_{ik}^2\mu_i}\\ I_{\beta_m\beta_k} \left(\boldsymbol{\theta}\right)=\sum_{i=1}^{N}{t_i^\gamma x_{ik}x_{im}\mu_i}\\ I_{\beta_k\gamma} \left(\boldsymbol{\theta}\right)=I_{\gamma\beta_k} \left(\boldsymbol{\theta}\right)=\sum_{i=1}^{N}{x_{ik}\mu_it_i^\gamma\log{t_j}}\\ I_\gamma \left(\boldsymbol{\theta}\right)=-\frac{d_{\bullet }}{\gamma^2}-\sum_{i=1}^{N}{\mu_it_i^\gamma \left(\log{t_i}\right)^2} \end{gather} 〔3〕偏回帰係数とハザード比の関係
$i$ 番目の共変量 $x_i$ の1単位の増加に対するハザード比は \begin{gather} e^{\beta_i} \end{gather} である。

証明:スコア関数②

証明

対数尤度関数の式に $\mu_i=\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)$ を代入すると、 \begin{align} l \left(\boldsymbol{\theta}\right)&=\sum_{i=1}^{N}{\delta_i \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}+\log{\gamma}\sum_{i=1}^{N}\delta_i+ \left(\gamma-1\right)\sum_{i=1}^{N}\delta_i\log{t_i}-\sum_{i=1}^{N}{t_i^\gamma\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=\alpha\sum_{i=1}^{N}\delta_i+\sum_{i=1}^{N}{\delta_i\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}}+\log{\gamma}\sum_{i=1}^{N}\delta_i+ \left(\gamma-1\right)\sum_{i=1}^{N}\delta_i\log{t_i}-\sum_{i=1}^{N}{t_i^\gamma\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=\alpha D+\sum_{i=1}^{N}{\delta_i\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}}+D\log{\gamma}+ \left(\gamma-1\right)\sum_{i=1}^{N}\delta_i\log{t_i}-\sum_{i=1}^{N}{t_i^\gamma\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)} \end{align} (a)パラメータ $\alpha$ に関するスコア関数は、 \begin{align} U_\alpha \left(\boldsymbol{\theta}\right)&=D-\sum_{i=1}^{N}{t_i^\gamma\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=D-\sum_{i=1}^{N}{t_i^\gamma\mu_i} \end{align} (b)パラメータ $\gamma$ に関するスコア関数は、 \begin{align} U_\gamma \left(\boldsymbol{\theta}\right)&=\frac{D}{\gamma}+\sum_{i=1}^{N}\delta_i\log{t_i}-\sum_{i=1}^{N}{t_i^\gamma\log{t_i}\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=\frac{D}{\gamma}+\sum_{i=1}^{N}\delta_i\log{t_i}-\sum_{i=1}^{N}{\mu_it_i^\gamma\log{t_i}} \end{align} (c)パラメータ $\beta_k \left(1 \le k \le p\right)$ に関するスコア関数は、 \begin{align} U_{\beta_k} \left(\boldsymbol{\theta}\right)&=\sum_{i=1}^{N}{x_{ik} \cdot \delta_i}-\sum_{i=1}^{N}{t_i^\gamma x_{ik} \cdot \mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=\sum_{i=1}^{N}{x_{ik} \left(\delta_i-t_i^\gamma \cdot \mu_i\right)} \end{align} $\blacksquare$

証明:期待情報行列②

証明

期待情報行列の成分 $\boldsymbol{I} \left(\boldsymbol{\theta}\right)=\boldsymbol{i} \left(\boldsymbol{\theta}\right)=-\boldsymbol{H} \left(\boldsymbol{\theta}\right)$ は、 \begin{align} I_\alpha \left(\boldsymbol{\theta}\right)&=-\sum_{i=1}^{N}{t_i^\gamma\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=-\sum_{i=1}^{N}{t_i^\gamma\mu_i} \end{align} \begin{align} I_{\alpha\gamma} \left(\boldsymbol{\theta}\right)&=I_{\gamma\alpha} \left(\boldsymbol{\theta}\right)\\ &=-\sum_{i=1}^{N}{t_i^\gamma\log{t_i}\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=-\sum_{i=1}^{N}{t_i^\gamma\log{t_i}\mu_i} \end{align} \begin{align} I_{\alpha\beta_k} \left(\boldsymbol{\theta}\right)&=I_{\beta_k\alpha} \left(\boldsymbol{\theta}\right)\\ &=-\sum_{i=1}^{N}{t_i^\gamma x_{ik} \cdot \mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=-\sum_{i=1}^{N}{t_i^\gamma x_{ik}\mu_i} \end{align} \begin{align} I_{\beta_k} \left(\boldsymbol{\theta}\right)&=-\sum_{i=1}^{N}{t_i^\gamma x_{ik}^2 \cdot \mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=-\sum_{i=1}^{N}{t_i^\gamma x_{ik}^2\mu_i} \end{align} \begin{align} I_{\beta_m\beta_k} \left(\boldsymbol{\theta}\right)&=-\sum_{i=1}^{N}{t_i^\gamma x_{ik}x_{im} \cdot \mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right)}\\ &=-\sum_{i=1}^{N}{t_i^\gamma x_{ik}x_{im}\mu_i} \end{align} \begin{align} I_{\beta_k\gamma} \left(\boldsymbol{\theta}\right)&=I_{\gamma\beta_k} \left(\boldsymbol{\theta}\right)\\ &=-\sum_{i=1}^{N}{x_{ik}\mu_it_i^\gamma\log{t_j}} \end{align} \begin{align} I_\gamma \left(\boldsymbol{\theta}\right)=-\frac{D}{\gamma^2}-\sum_{i=1}^{N}{\mu_it_i^\gamma \left(\log{t_i}\right)^2} \end{align} $\blacksquare$

証明:偏回帰係数とハザード比の関係

証明

ハザード関数の定義式より、 \begin{align} \lambda \left(t\right)&=\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right) \cdot \gamma t^{\gamma-1}\\ &=e^\alpha \cdot e^{x_1\beta_1} \cdot \cdots \cdot e^{x_p\beta_p} \cdot \gamma t^{\gamma-1} \end{align} よって、$x_i=a$ と $x_i=a+1$ をもち、その他の共変量はすべて同じである被験者のハザード比は、 \begin{align} \lambda=\frac{e^\alpha \cdot e^{x_1\beta_1} \cdot \cdots \cdot e^{x_p\beta_p} \cdot \gamma t^{\gamma-1} \cdot e^{ \left(a+1\right)\beta_i}}{e^\alpha \cdot e^{x_1\beta_1} \cdot \cdots \cdot e^{x_p\beta_p} \cdot \gamma t^{\gamma-1} \cdot e^{a \cdot \beta_i}}=e^{\beta_i} \end{align} このことから、このパラメータ化によるワイブルモデルはパラメトリックな比例ハザードモデルであることが分かる。 $\blacksquare$

【定理】ワイブルモデルの生存関数②:率パラメータが共変量ベクトルの関数のとき

【定理】
ワイブルモデルの生存関数②:率パラメータが共変量ベクトルの関数のとき
Suvival Function of Weibull Models: When Scale Parameter Depends on Covariates

共変量ベクトル $\boldsymbol{x}$ をもつ被験者に対する生存関数は、 \begin{align} S \left(t\middle|\boldsymbol{x}\right)=\mathrm{exp} \left[-\mathrm{exp} \left(\gamma\log{t}+\alpha+\boldsymbol{x}^\boldsymbol{T}\boldsymbol{\beta}\right)\right] \end{align} 補対数対数生存関数の最尤推定量とその分散は、 \begin{align} \log{ \left[-\log{ \left\{\hat{S} \left(t\middle|\boldsymbol{x}\right)\right\}}\right]}=\hat{\gamma}\log{t}+\hat{\alpha}+\boldsymbol{x}^\boldsymbol{T}\hat{\boldsymbol{\beta}}\\ \end{align} \begin{gather} V \left[\log{ \left[-\log{ \left\{\hat{S} \left(t\middle|\boldsymbol{x}\right)\right\}}\right]}\right]=\boldsymbol{H}^\boldsymbol{T}\boldsymbol{\Sigma}\boldsymbol{H}\\ \boldsymbol{H} \left(\boldsymbol{\theta}\right)= \left(\begin{matrix}\log{t}\\\boldsymbol{1}\\\boldsymbol{x}^\boldsymbol{T}\\\end{matrix}\right)\\ \boldsymbol{\Sigma}= \left[\begin{matrix}\sigma_\gamma^2&\sigma_{\alpha\gamma}&\boldsymbol{\Sigma}_{\gamma\beta}\\\sigma_{\gamma\alpha}&\sigma_\alpha^2&\boldsymbol{\Sigma}_{\alpha\beta}\\\boldsymbol{\Sigma}_{\beta\gamma}&\boldsymbol{\Sigma}_{\beta\alpha}&\boldsymbol{\Sigma}_\beta\\\end{matrix}\right] \end{gather}

証明:生存関数

証明

ワイブルモデルの生存関数の定義式より、共変量ベクトル $\boldsymbol{x}$ をもつ被験者に対する生存関数は、 \begin{align} S \left(t\middle|\boldsymbol{x}\right)&=\mathrm{exp} \left(-\mu t^\gamma\right)\\ &=\mathrm{exp} \left\{-\mathrm{exp} \left(\alpha+\boldsymbol{x}_\boldsymbol{i}^\boldsymbol{T}\boldsymbol{\beta}\right) \cdot t^\gamma\right\} \end{align} 指数の性質 $t^\gamma=e^{\gamma\log{t}}$ より、 \begin{align} S \left(t\middle|\boldsymbol{x}\right)=\mathrm{exp} \left[-\mathrm{exp} \left(\gamma\log{t}+\alpha+\boldsymbol{x}^\boldsymbol{T}\boldsymbol{\beta}\right)\right] \end{align} $\blacksquare$

証明:補対数対数生存関数

証明

この最尤推定量は、 \begin{align} \hat{S} \left(t\middle|\boldsymbol{x}\right)=\mathrm{exp} \left[-\mathrm{exp} \left(\hat{\gamma}\log{t}+\hat{\alpha}+\boldsymbol{x}^\boldsymbol{T}\hat{\boldsymbol{\beta}}\right)\right] \end{align} 式を変形していくと、 \begin{gather} \log{ \left\{\hat{S} \left(t\middle|\boldsymbol{x}\right)\right\}}=-\mathrm{exp} \left(\hat{\gamma}\log{t}+\hat{\alpha}+\boldsymbol{x}^\boldsymbol{T}\hat{\boldsymbol{\beta}}\right)\\ -\log{ \left\{\hat{S} \left(t\middle|\boldsymbol{x}\right)\right\}}=\mathrm{exp} \left(\hat{\gamma}\log{t}+\hat{\alpha}+\boldsymbol{x}^\boldsymbol{T}\hat{\boldsymbol{\beta}}\right)\\ \log{ \left[-\log{ \left\{\hat{S} \left(t\middle|\boldsymbol{x}\right)\right\}}\right]}=\hat{\gamma}\log{t}+\hat{\alpha}+\boldsymbol{x}^\boldsymbol{T}\hat{\boldsymbol{\beta}} \end{gather} ここで、情報行列の逆行列によって求めたパラメータの推定量の漸近分散・共分散行列を \begin{gather} \boldsymbol{\Sigma}= \left[\begin{matrix}\sigma_\gamma^2&\sigma_{\alpha\gamma}&\boldsymbol{\Sigma}_{\gamma\beta}\\\sigma_{\gamma\alpha}&\sigma_\alpha^2&\boldsymbol{\Sigma}_{\alpha\beta}\\\boldsymbol{\Sigma}_{\beta\gamma}&\boldsymbol{\Sigma}_{\beta\alpha}&\boldsymbol{\Sigma}_\beta\\\end{matrix}\right]\\ V \left(\hat{\alpha}\right)=\sigma_\alpha^2 \quad V \left(\hat{\gamma}\right)=\sigma_\gamma^2 \quad V \left(\hat{\boldsymbol{\beta}}\right)=\boldsymbol{\Sigma}_\beta\\ \mathrm{Cov} \left(\widehat{\alpha,}\hat{\gamma}\right)=\sigma_{\alpha\gamma}=\sigma_{\gamma\alpha}\\ \mathrm{Cov} \left(\widehat{\alpha,}\hat{\boldsymbol{\beta}}\right)=\boldsymbol{\Sigma}_{\alpha\beta}=\boldsymbol{\Sigma}_{\beta\alpha}\\ \mathrm{Cov} \left(\hat{\gamma},\hat{\boldsymbol{\beta}}\right)=\boldsymbol{\Sigma}_{\gamma\beta}=\boldsymbol{\Sigma}_{\beta\gamma} \end{gather} ただし、$\boldsymbol{\Sigma}_\beta$は $p\times p$ 行列 とする。 最尤推定量の漸近的な性質より、 \begin{gather} \hat{\alpha} \sim \mathrm{N} \left(\alpha,\sigma_\alpha^2\right)\\ \hat{\gamma} \sim \mathrm{N} \left(\gamma,\sigma_\gamma^2\right)\\ \hat{\boldsymbol{\beta}} \sim {\mathrm{\boldsymbol{N}}}_p \left(\boldsymbol{\beta},\boldsymbol{\Sigma}_\beta\right) \end{gather} 最尤推定量ベクトルを \begin{align} \hat{\boldsymbol{\theta}}= \left(\begin{matrix}\hat{\gamma}\\\hat{\alpha}\\\hat{\boldsymbol{\beta}}\\\end{matrix}\right) \end{align} 期待値ベクトルを \begin{align} \boldsymbol{\theta}= \left(\begin{matrix}\gamma\\\alpha\\\boldsymbol{\beta}\\\end{matrix}\right) \end{align} として、 \begin{gather} G \left(\boldsymbol{\theta}\right)=\log{ \left[-\log{ \left\{S \left(t\middle|\boldsymbol{x}\right)\right\}}\right]}=\gamma\log{t}+\alpha+\boldsymbol{x}^\boldsymbol{T}\boldsymbol{\beta}\\ G \left(\hat{\boldsymbol{\theta}}\right)=\log{ \left[-\log{ \left\{\hat{S} \left(t\middle|\boldsymbol{x}\right)\right\}}\right]}=\hat{\gamma}\log{t}+\hat{\alpha}+\boldsymbol{x}^\boldsymbol{T}\hat{\boldsymbol{\beta}} \end{gather} と変数変換する。 多変量のデルタ法を用いて $G \left(\boldsymbol{\theta}\right)$ を期待値 $E \left(\hat{\boldsymbol{\theta}}\right)=\boldsymbol{\theta}$ まわりでテイラー展開すると、偏導関数ベクトルは、 \begin{align} \boldsymbol{H} \left(\boldsymbol{\theta}\right)= \left(\begin{matrix}\frac{G \left(\boldsymbol{\theta}\right)}{\partial\gamma}\\\frac{G \left(\boldsymbol{\theta}\right)}{\partial\alpha}\\\frac{G \left(\boldsymbol{\theta}\right)}{\partial\boldsymbol{\beta}}\\\end{matrix}\right)= \left(\begin{matrix}\log{t}\\\boldsymbol{1}\\\boldsymbol{x}^\boldsymbol{T}\\\end{matrix}\right) \end{align} 多変量のデルタ法の期待値と分散の公式より、 \begin{align} E \left[G \left(\hat{\boldsymbol{\theta}}\right)\right]\cong G \left(\boldsymbol{\theta}\right)=\gamma\log{t}+\alpha+\boldsymbol{x}^\boldsymbol{T}\boldsymbol{\beta} \end{align} \begin{align} V \left[G \left(\hat{\boldsymbol{\theta}}\right)\right]=\boldsymbol{H}^\boldsymbol{T}\boldsymbol{\Sigma}\boldsymbol{H} \end{align} $\blacksquare$

参考文献

  • ジョン・ラチン 著, 宮岡 悦良 監訳, 遠藤 輝, 黒沢 健, 下川 朝有, 寒水 孝司 訳. 医薬データのための統計解析. 共立出版, 2020, p.556-558

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ