本稿では、ネイマン・ピアソンの基本定理を証明しています。
なお、閲覧にあたっては、以下の点にご注意ください。
- スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。
【定理】ネイマン・ピアソンの基本定理
【定理】
ネイマン・ピアソンの基本定理
Neyman-Pearson Lemma
任意の確率分布 $P_\theta \left(\theta\in\Theta\right)$ からの大きさ $n$ の無作為標本を \begin{align} \boldsymbol{X}= \left\{X_1,X_2, \cdots ,X_n\right\} \end{align} その標本値を \begin{align} \boldsymbol{x}= \left\{x_1,x_2, \cdots ,x_n\right\} \end{align} とする。 この標本値にもとづく $\theta$ の尤度関数を $L \left(\theta\right)=f \left(\theta;\boldsymbol{x}\right)$ とし、2つの単純仮説による検定問題 \begin{align} H_0:\theta=\theta_0 \quad H_1:\theta=\theta_1 \end{align} を考えるとき、 有意水準を $\alpha$ とする最強力検定は、以下の棄却域と検定関数 $\varphi \left(\theta;\boldsymbol{x}\right)$ をもつ検定である。 \begin{align} \begin{matrix}\varphi \left(\theta;\boldsymbol{x}\right)= \left\{\begin{matrix}1&L \left(\theta_0;\boldsymbol{x}\right) \lt kL \left(\theta_1;\boldsymbol{x}\right)\\\gamma&L \left(\theta_0;\boldsymbol{x}\right)=kL \left(\theta_1;\boldsymbol{x}\right)\\0&L \left(\theta_0;\boldsymbol{x}\right) \gt kL \left(\theta_1;\boldsymbol{x}\right)\\\end{matrix}\right.&\begin{matrix}\mathrm{0:Hold\ }H_0\\\mathrm{1:Reject\ }H_0\\\end{matrix}\\\end{matrix} \end{align} ただし、定数 $\gamma,k$ は、$0 \le \gamma \le 1,0 \lt k$ を満たし、 \begin{align} E_{\theta_0} \left\{\varphi \left(\theta;\boldsymbol{x}\right)\right\}=\alpha\Leftrightarrow P \left\{\ L \left(\theta_0\right) \geq c\ \middle|\ \theta=\theta_0\ \right\}=\alpha \end{align} から定まるものである。
証明:連続型の場合
$\boldsymbol{x}= \left\{x_1,x_2, \cdots ,x_n\right\}$ の同時確率密度関数を $f \left(\boldsymbol{x};\theta\right)$ とし、検定量の空間 $S$ を \begin{align} \left\{\begin{matrix}C= \left\{\boldsymbol{x}\in A\middle| L \left(\theta_0;\boldsymbol{x}\right) \lt kL \left(\theta_1;\boldsymbol{x}\right)\right\}\\D= \left\{\boldsymbol{x}\in A\middle| L \left(\theta_0;\boldsymbol{x}\right)=kL \left(\theta_1;\boldsymbol{x}\right)\right\}\\E= \left\{\boldsymbol{x}\in A\middle| L \left(\theta_0;\boldsymbol{x}\right) \gt kL \left(\theta_1;\boldsymbol{x}\right)\right\}\\\end{matrix}\right. \end{align} と分割すると、 これらは互いに素であるから \begin{align} S=C \cup D \cup E \end{align} と表される。
(i)帰無仮説についての条件
ここで、$\varphi^\ast \left(\theta;\boldsymbol{x}\right)$ を有意水準 $\alpha$ の他の検定関数とすると、検定関数の定義から
\begin{gather}
E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_0\ \right\}=\int_{-\infty}^{\infty}{\varphi^\ast \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}} \le \alpha\\
E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_0\ \right\}=\int_{-\infty}^{\infty}{\varphi^\ast \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}} \le \alpha
\end{gather}
が成り立つ。
(ii)対立仮説についての条件
それぞれの検定の検出力は、
\begin{gather}
E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}=\int_{-\infty}^{\infty}{\varphi^\ast \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}\\
E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}=\int_{-\infty}^{\infty}{\varphi \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}
\end{gather}
これらの差を取ると、
\begin{align}
\Delta&=E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}-E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}\\
&=\int_{-\infty}^{\infty}{\varphi \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}-\int_{-\infty}^{\infty}{\varphi^\ast \left(\theta;\boldsymbol{x}\right) \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}\\
&=\int_{-\infty}^{\infty}{ \left\{\varphi \left(\theta;\boldsymbol{x}\right)-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}
\end{align}
積分区間を分割すると、
\begin{gather}
\Delta=\int_{C}{ \left\{1-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}+\int_{D}{ \left\{\gamma-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}+\int_{E}{ \left\{0-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_1\right)d\boldsymbol{x}}\\
\Delta \geq \int_{C}{ \left\{1-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot k f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}+\int_{D}{ \left\{\gamma-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot k f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}+\int_{E}{ \left\{0-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot k f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}\\
\Delta \geq k\int_{C}{ \left\{1-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}+k\int_{D}{ \left\{\gamma-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}+k\int_{E}{ \left\{0-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}\\
\Delta \geq k\int_{-\infty}^{\infty}{ \left\{\varphi \left(\theta;\boldsymbol{x}\right)-\varphi^\ast \left(\theta;\boldsymbol{x}\right)\right\} \cdot f \left(\boldsymbol{x};\theta_0\right)d\boldsymbol{x}}\\
\Delta \geq k \left[E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_0\ \right\}-E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_0\ \right\}\right]\\
\Delta \geq k \left(\alpha-\alpha\right)=0
\end{gather}
したがって、
\begin{align}
E \left\{\ \varphi \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\} \geq E \left\{\ \varphi^\ast \left(\theta;\boldsymbol{x}\right)\ \middle|\ \theta=\theta_1\ \right\}
\end{align}
となり、検出力が最大となる。
$\blacksquare$
参考文献
- 野田 一雄, 宮岡 悦良 著. 入門・演習数理統計. 共立出版, 1990, p.198, p.257-258
- 久保川 達也 著, 新井 仁之, 小林 俊行, 斎藤 毅, 吉田 朋広 編. 現代数理統計学の基礎. 共立出版, 2017, p.161-162
0 件のコメント:
コメントを投稿