ネイマン・ピアソンの基本定理の証明

公開日: 更新日:

【2023年4月4週】 【B000】数理統計学 【B080】統計的仮説検定

この記事をシェアする
  • B!
サムネイル画像

本稿では、ネイマン・ピアソンの基本定理を証明しています。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。

【定理】ネイマン・ピアソンの基本定理

【定理】
ネイマン・ピアソンの基本定理
Neyman-Pearson Lemma

任意の確率分布 $P_\theta \left(\theta\in\Theta\right)$ からの大きさ $n$ の無作為標本を \begin{align} \boldsymbol{X}= \left\{X_1,X_2, \cdots ,X_n\right\} \end{align} その標本値を \begin{align} \boldsymbol{x}= \left\{x_1,x_2, \cdots ,x_n\right\} \end{align} とする。 この標本値にもとづく $\theta$ の尤度関数を $L \left(\theta\right)=f \left(\theta;\boldsymbol{x}\right)$ とし、2つの単純仮説による検定問題 \begin{align} H_0:\theta=\theta_0 \quad H_1:\theta=\theta_1 \end{align} を考えるとき、 有意水準を $\alpha$ とする最強力検定は、以下の棄却域と検定関数 $\varphi \left(\theta;\boldsymbol{x}\right)$ をもつ検定である。 \begin{align} \begin{matrix}\varphi \left(\theta;\boldsymbol{x}\right)= \left\{\begin{matrix}1&L \left(\theta_0;\boldsymbol{x}\right) \lt kL \left(\theta_1;\boldsymbol{x}\right)\\\gamma&L \left(\theta_0;\boldsymbol{x}\right)=kL \left(\theta_1;\boldsymbol{x}\right)\\0&L \left(\theta_0;\boldsymbol{x}\right) \gt kL \left(\theta_1;\boldsymbol{x}\right)\\\end{matrix}\right.&\begin{matrix}\mathrm{0:Hold\ }H_0\\\mathrm{1:Reject\ }H_0\\\end{matrix}\\\end{matrix} \end{align} ただし、定数 $\gamma,k$ は、$0 \le \gamma \le 1,0 \lt k$ を満たし、 \begin{align} E_{\theta_0} \left\{\varphi \left(\theta;\boldsymbol{x}\right)\right\}=\alpha\Leftrightarrow P \left\{\ L \left(\theta_0\right) \geq c\ \middle|\ \theta=\theta_0\ \right\}=\alpha \end{align} から定まるものである。

証明:連続型の場合

証明

$\boldsymbol{x}= \left\{x_1,x_2, \cdots ,x_n\right\}$ の同時確率密度関数を $f \left(\boldsymbol{x};\theta\right)$ とし、検定量の空間 $S$ を \begin{align} \left\{\begin{matrix}C= \left\{\boldsymbol{x}\in A\middle| L \left(\theta_0;\boldsymbol{x}\right) \lt kL \left(\theta_1;\boldsymbol{x}\right)\right\}\\D= \left\{\boldsymbol{x}\in A\middle| L \left(\theta_0;\boldsymbol{x}\right)=kL \left(\theta_1;\boldsymbol{x}\right)\right\}\\E= \left\{\boldsymbol{x}\in A\middle| L \left(\theta_0;\boldsymbol{x}\right) \gt kL \left(\theta_1;\boldsymbol{x}\right)\right\}\\\end{matrix}\right. \end{align} と分割すると、 これらは互いに素であるから \begin{align} S=C \cup D \cup E \end{align} と表される。

(i)帰無仮説についての条件
ここで、$\varphi^\ast \left(\theta;\boldsymbol{x}\right)$ を有意水準 $\alpha$ の他の検定関数とすると、検定関数の定義から \begin{gather} E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_0\ \right\}=\int_{-\infty}^{\infty}{\varphi^\ast \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}} \le \alpha\\ E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_0\ \right\}=\int_{-\infty}^{\infty}{\varphi^\ast \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}} \le \alpha \end{gather} が成り立つ。

(ii)対立仮説についての条件
それぞれの検定の検出力は、 \begin{gather} E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}=\int_{-\infty}^{\infty}{\varphi^\ast \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}\\ E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}=\int_{-\infty}^{\infty}{\varphi \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}} \end{gather} これらの差を取ると、 \begin{align} \Delta&=E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}-E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}\\ &=\int_{-\infty}^{\infty}{\varphi \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}-\int_{-\infty}^{\infty}{\varphi^\ast \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}\\ &=\int_{-\infty}^{\infty}{ \left\{\varphi \left(\theta;\boldsymbol{x}\right)-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}} \end{align} 積分区間を分割すると、 \begin{gather} \Delta=\int_{C}{ \left\{1-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}+\int_{D}{ \left\{\gamma-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}+\int_{E}{ \left\{0-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}\\ \Delta \geq \int_{C}{ \left\{1-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot k f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}+\int_{D}{ \left\{\gamma-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot k f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}+\int_{E}{ \left\{0-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot k f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}\\ \Delta \geq k\int_{C}{ \left\{1-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}+k\int_{D}{ \left\{\gamma-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}+k\int_{E}{ \left\{0-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}\\ \Delta \geq k\int_{-\infty}^{\infty}{ \left\{\varphi \left(\theta;\boldsymbol{x}\right)-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}\\ \Delta \geq k \left[E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_0\ \right\}-E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_0\ \right\}\right]\\ \Delta \geq k \left(\alpha-\alpha\right)=0 \end{gather} したがって、 \begin{align} E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\} \geq E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\} \end{align} となり、検出力が最大となる。 $\blacksquare$

参考文献

  • 野田 一雄, 宮岡 悦良 著. 入門・演習数理統計. 共立出版, 1990, p.198, p.257-258
  • 久保川 達也 著, 新井 仁之, 小林 俊行, 斎藤 毅, 吉田 朋広 編. 現代数理統計学の基礎. 共立出版, 2017, p.161-162

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ