スコア関数とフィッシャー情報量

公開日: 更新日:

【2023年4月3週】 【B000】数理統計学 【B070】統計的推定

この記事をシェアする
  • B!
サムネイル画像

本稿では、スコア関数とフィッシャー情報量の定義を紹介し、それらの性質を証明しています。スコア関数の期待値は0、フィッシャー情報量の別表現などが含まれます。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。

スコア関数とフィッシャー情報量

対数尤度関数がパラメータ $\theta$ で偏微分できるとき、その導関数 \begin{align} S \left(\theta\right)=\frac{\partial}{\partial\theta}\log{L \left(\theta\right)} \end{align} スコア関数 score function といい、 導関数の2乗の期待値 \begin{align} I_n \left(\theta\right)=E \left[ \left\{S \left(\theta\right)\right\}^2\right]=E \left[ \left\{\frac{\partial}{\partial\theta}\log{L \left(\theta\right)}\right\}^2\right] \end{align} フィッシャー情報量 Fisher information という。

正則条件

条件①:台とパラメータの独立性

同時確率密度関数 $f \left(\boldsymbol{x};\theta\right)$ の台 \begin{gather} A= \left\{x:f \left(\boldsymbol{x};\theta\right) \lt 0\right\} \end{gather} が $\theta$ に依存しない。

条件②:微分と積分の順序交換が可能

すべての $\boldsymbol{x}\in A,\theta\in\mathrm{\Theta}$ において、 $f \left(\boldsymbol{x};\theta\right)$ が $\theta$ に関して2階まで微分可能で、
$\int{f \left(\boldsymbol{x}\middle|\theta\right)}$ の2階までの微分は積分記号下での微分に等しい。
すなわち $k\ =\ 1,2$ に対して、 \begin{align} \frac{d^k}{d\theta^k}\int f \left(x;\theta\right)dx=\int{\frac{d^k}{d\theta^k}f \left(x;\theta\right)dx} \end{align} が成り立つ。

条件③:有界性

フィッシャー情報量 $I_1 \left(\theta\right)$ は有界、すなわち、 \begin{align} 0 \lt I_1 \left(\theta\right) \lt \infty \end{align}

条件④:識別可能性

母数 $\theta$ は識別可能、すなわち $\theta \neq \theta^\prime$ ならば、$f \left(x\middle|\theta\right) \neq f \left(x\middle|\theta^\prime\right)$ である。

条件⑤:開近傍がとれる

真の母数の値 $\theta_0$ が母数空間の内点にある、すなわち母数空問に含まれる $\theta_0$ の開近傍がとれる。

条件⑥:3回連続微分可能

$f \left(x\middle|\theta\right)$ が $\theta$ に関して3回連続微分可能とする。また、正の実数 $c$ と関数 $M \left(x\right)$ が存在して、 \begin{gather} \theta_0-c \lt \theta \lt \theta_0+c \end{gather} なるすべての $\theta$ に対して \begin{gather} \frac{\partial^3}{\partial\theta^3}\log{f \left(x\middle|\theta\right)} \le M \left(x\right) \end{gather} であり、 \begin{gather} E \left[M \left(X\right)\right] \lt \infty \end{gather} を満たすものとし、 さらに $M \left(x\right)$ は $\theta_0,c$ に依存してもよいが、$\theta$ に依存しないものとする。

【定理】スコア関数とフィッシャー情報量の性質

【定理】
スコア関数とフィッシャー情報量の性質
Properties of Score Function and Fisher Information

先に挙げた正則条件を仮定するとき、以下に挙げる性質(I)~(III)が成り立つ。

(I)スコア関数の期待値は0 \begin{align} E \left[S_n \left(\theta\right)\right]=0 \end{align}

(II)$n$ 個のデータのフィッシャー情報量は1個のデータのフィッシャー情報量の $n$ 倍になる。 \begin{align} I_n \left(\theta\right)=nI_1 \left(\theta\right) \end{align}

(III)フィッシャー情報量は2階微分を用いた \begin{align} I_1 \left(\theta\right)=-E \left[\frac{\partial^2}{\partial\theta^2}\log{L \left(\theta\right)}\right] \end{align} の形で書き表すことができる。

証明

証明

(I)確率の公理より、 \begin{align} \int_{-\infty}^{-\infty}{\int_{-\infty}^{-\infty} \cdots \int_{-\infty}^{-\infty}{f \left(\boldsymbol{x};\theta\right)dx_1dx_2 \cdots {dx}_n}=1} \end{align} 期待値の定義式 $E \left(X\right)=\int_{-\infty}^{\infty}{x \cdot f \left(x\right)dx}$ より、 \begin{align} E \left[S_n \left(\theta\right)\right]=\int_{-\infty}^{-\infty}{\int_{-\infty}^{-\infty} \cdots \int_{-\infty}^{-\infty}{\frac{\partial}{\partial\theta}\log{f \left(\boldsymbol{x}:\theta\right)} \cdot f \left(\boldsymbol{x};\theta\right)dx_1dx_2 \cdots {dx}_n}} \end{align} 対数の微分公式合成関数の微分法 $\frac{\partial}{\partial x}\log{f \left(x\right)}=\frac{\partial}{\partial x}f \left(x\right) \cdot \frac{1}{f \left(x\right)}$ より、 \begin{align} E \left[S_n \left(\theta\right)\right]&=\int_{-\infty}^{-\infty}{\int_{-\infty}^{-\infty} \cdots \int_{-\infty}^{-\infty}{ \left[\frac{1}{f \left(\boldsymbol{x}:\theta\right)} \cdot \frac{\partial}{\partial\theta}f \left(\boldsymbol{x}:\theta\right)\right] \cdot f \left(\boldsymbol{x};\theta\right)dx_1dx_2 \cdots {dx}_n}}\\ &=\int_{-\infty}^{-\infty}{\int_{-\infty}^{-\infty} \cdots \int_{-\infty}^{-\infty}{\frac{\partial}{\partial\theta}f \left(\boldsymbol{x}:\theta\right)dx_1dx_2 \cdots {dx}_n}} \end{align} 正則条件 $\frac{d^k}{d\theta^k}\int f \left(x;\theta\right)dx=\int{\frac{d^k}{d\theta^k}f \left(x;\theta\right)dx}$ より、 \begin{align} E \left[S_n \left(\theta\right)\right]=\frac{\partial}{\partial\theta}\int_{-\infty}^{-\infty}{\int_{-\infty}^{-\infty} \cdots \int_{-\infty}^{-\infty}{f \left(\boldsymbol{x}:\theta\right)dx_1dx_2 \cdots {dx}_n}}=\frac{\partial}{\partial\theta}1=0 \end{align}

(II)$S_n \left(\theta\right)=\sum_{i=1}^{n}{S_1 \left(\theta,X_i\right)}$ と書けるので、 \begin{align} I_n \left(\theta\right)&=E \left[ \left\{S_n \left(\theta\right)\right\}^2\right]\\ &=\sum_{i=1}^{n}E \left[ \left\{S_1 \left(\theta,X_i\right)\right\}^2\right]+\sum_{j \neq i}\sum_{i=1}^{n}E \left[S_1 \left(\theta,X_i\right)\right]E \left[S_1 \left(\theta,X_j\right)\right] \end{align} $E \left[S_1 \left(\theta\right)\right]=0$ より、 \begin{align} I_n \left(\theta\right)=nI_1 \left(\theta\right) \end{align}

(III)合成関数の微分法と対数の微分公式 $\frac{\partial}{\partial x}\log{f \left(x\right)}=\frac{\partial}{\partial x}f \left(x\right) \cdot \frac{1}{f \left(x\right)}$ より、 \begin{align} \frac{\partial^2}{\partial\theta^2}\log{L \left(\theta\right)}=\frac{\partial}{\partial\theta} \left\{\frac{\partial}{\partial\theta}f \left(x,\theta\right) \cdot \frac{1}{f \left(x,\theta\right)}\right\} \end{align} 商の微分公式 $\frac{\partial}{\partial x} \left\{\frac{f \left(x\right)}{g \left(x\right)}\right\}=\frac{f^\prime \left(x\right)}{g \left(x\right)}-\frac{f \left(x\right) \cdot g^\prime \left(x\right)}{ \left\{g \left(x\right)\right\}^2}$ より、 \begin{align} \frac{\partial^2}{\partial\theta^2}\log{L \left(\theta\right)}&=\frac{f^{\prime\prime} \left(x\right)}{f \left(x,\theta\right)}-\frac{f^\prime \left(x\right) \cdot f^\prime \left(x\right)}{ \left\{f \left(x,\theta\right)\right\}^2}\\ &=\frac{f^{\prime\prime} \left(x,\theta\right)}{f \left(x,\theta\right)}- \left\{\frac{f^\prime \left(x,\theta\right)}{f \left(x,\theta\right)}\right\}^2\\ &=\frac{f^{\prime\prime} \left(x,\theta\right)}{f \left(x,\theta\right)}- \left\{S_1 \left(\theta\right)\right\}^2\tag{1} \end{align} 2階微分について、 \begin{align} \int_{-\infty}^{\infty}{\frac{\partial^2}{\partial\theta^2}f \left(x,\theta\right)dx}=\frac{\partial^2}{\partial\theta^2}\int_{-\infty}^{\infty}f \left(x,\theta\right)dx=\frac{\partial^2}{\partial\theta^2}1=0 \end{align} よって、式 $(1)$ の両辺の期待値を取ると、 \begin{align} E \left[\frac{\partial^2}{\partial\theta^2}\log{L \left(\theta\right)}\right]=-E \left[ \left\{S_1 \left(\theta\right)\right\}^2\right] \end{align} フィッシャー情報量の定義式 $I_n \left(\theta\right)=E \left[ \left\{S \left(\theta\right)\right\}^2\right]$ より、 \begin{align} I_1 \left(\theta\right)=-E \left[\frac{\partial^2}{\partial\theta^2}\log{L \left(\theta\right)}\right] \end{align} $\blacksquare$

参考文献

  • 野田 一雄, 宮岡 悦良 著. 入門・演習数理統計. 共立出版, 1990, p.218-220
  • 久保川 達也 著, 新井 仁之, 小林 俊行, 斎藤 毅, 吉田 朋広 編. 現代数理統計学の基礎. 共立出版, 2017, p.129-130

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ