代表的な確率分布の十分統計量の導出

公開日: 更新日:

【2023年4月3週】 【B000】数理統計学 【B070】統計的推定

この記事をシェアする
  • B!
サムネイル画像

本稿では、代表的な確率分布(二項分布、ポアソン分布、幾何分布、正規分布、指数分布、ガンマ分布)の十分統計量を導出しています。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。

【定理】二項分布の十分統計量

【定理】
二項分布の十分統計量
Sufficient Statistics of Binomial Distribution

二項分布 $\mathrm{B} \left(n,p\right)$ のパラメータ $p$ を推定するための十分推定量は、 \begin{gather} T \left(X\right)=x \end{gather}

証明

証明

二項分布の確率関数は、 \begin{gather} f \left(x\right)= \left\{\begin{matrix}{}_{n}C_xp^x \left(1-p\right)^{n-x}&x=0,1, \cdots ,n\\0&\mathrm{other}\\\end{matrix}\right. \end{gather} 具体的な観測値として、$X=x$ という値が得られたときの確率関数 $f \left(x\right)$ を求めると、 \begin{gather} f \left(x\right)={}_{n}C_xp^x \left(1-p\right)^{n-x} \end{gather} このとき、 \begin{gather} g \left(t,\theta\right)=p^x \left(1-p\right)^{n-x} \quad T \left(X\right)=x \quad h \left(x\right)={}_{n}C_x \end{gather} と考えると、 フィッシャー・ネイマンの因子分解定理により、$T \left(X\right)=x$ はパラメータ $p$ を推定するための十分推定量である。 $\blacksquare$

【定理】ポアソン分布の十分統計量

【定理】
ポアソン分布の十分統計量
Sufficient Statistics of Poisson Distribution

ポアソン分布 $\mathrm{Po} \left(\lambda\right)$ のパラメータ $\lambda$ を推定するための十分推定量は、 \begin{gather} T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \end{gather}

証明

証明

ポアソン分布の確率関数は、 \begin{gather} f \left(x\right)= \left\{\begin{matrix}\frac{\lambda^xe^{-\lambda}}{x!}& \left(x=0,1,2, \cdots \right)\\0&\mathrm{other}\\\end{matrix}\right. \end{gather} 具体的な観測値として、$\boldsymbol{x}= \left\{x_1,x_2, \cdots x_n\right\}$ という値が得られたときの同時確率関数 $f \left(\boldsymbol{x}\right)$ を求めると、 \begin{align} f \left(\boldsymbol{x}\right)&=\prod_{i=1}^{n}\frac{\lambda^{x_i}e^{-\lambda}}{x_i!}\\ &=\lambda^{ \left(x_1+x_2+ \cdots +x_n\right)} \cdot e^{-n\lambda} \cdot \frac{1}{x_1!} \cdot \frac{1}{x_2!} \cdot \cdots \cdot \frac{1}{x_n!}\\ &=\lambda^{\sum_{i=1}^{n}x_i} \cdot e^{-n\lambda} \cdot \prod_{i=1}^{n}\frac{1}{x_i!} \end{align} このとき、 \begin{gather} g \left(t,\theta\right)=\lambda^{\sum_{i=1}^{n}x_i}e^{-n\lambda} \quad T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \quad h \left(x\right)=\prod_{i=1}^{n}\frac{1}{x_i!} \end{gather} と考えると、 フィッシャー・ネイマンの因子分解定理により、$T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i$ はパラメータ $\lambda$ を推定するための十分推定量である。 $\blacksquare$

【定理】幾何分布の十分統計量

【定理】
幾何分布の十分統計量
Sufficient Statistics of Geometric Distribution

幾何分布 $\mathrm{G} \left(p\right)$ のパラメータ $p$ を推定するための十分推定量は、 \begin{gather} T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \end{gather}

証明

証明

幾何分布の確率関数は、 \begin{gather} f \left(x\right)= \left\{\begin{matrix} \left(1-p\right)^{x-1}p& \left(x=0,1,2, \cdots \right)\\0&\mathrm{other}\\\end{matrix}\right. \end{gather} 具体的な観測値として、$\boldsymbol{x}= \left\{x_1,x_2, \cdots x_n\right\}$ という値が得られたときの同時確率関数 $f \left(\boldsymbol{x}\right)$ を求めると、 \begin{align} f \left(\boldsymbol{x}\right)&=\prod_{i=1}^{n}{ \left(1-p\right)^{x_i-1}p}\\ &= \left(1-p\right)^{ \left(x_1+x_2+ \cdots +x_n\right)-n} \cdot p^n\\ &= \left(1-p\right)^{\sum_{i=1}^{n}x_i-n} \cdot p^n \end{align} このとき、 \begin{gather} g \left(t,\theta\right)= \left(1-p\right)^{\sum_{i=1}^{n}x_i-n}p^n \quad T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \quad h \left(x\right)=1 \end{gather} と考えると、 フィッシャー・ネイマンの因子分解定理により、$T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i$ はパラメータ $p$ を推定するための十分推定量である。 $\blacksquare$

【定理】正規分布の十分統計量

【定理】
正規分布の十分統計量
Sufficient Statistics of Normal Distribution

正規分布 $\mathrm{N} \left(\mu,\sigma^2\right)$ のパラメータ $\mu$ を推定するための十分推定量は、 \begin{gather} T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \end{gather} また、パラメータベクトル $\boldsymbol{\theta}= \left(\mu,\sigma^2\right)$ を推定するための十分推定量ベクトルは、 \begin{gather} \boldsymbol{T} \left(\boldsymbol{X}\right)= \left(\sum_{i=1}^{n}x_i,\sum_{i=1}^{n}x_i^2\right) \end{gather}

証明

証明

正規分布の確率密度関数は、 \begin{gather} \begin{matrix}f \left(x\right)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{ \left(x-\mu\right)^2}{2\sigma^2}}& \left(-\infty \lt x \lt \infty\right)\\\end{matrix} \end{gather} 具体的な観測値として、$\boldsymbol{x}= \left\{x_1,x_2, \cdots x_n\right\}$ という値が得られたときの同時確率関数 $f \left(\boldsymbol{x}\right)$ を求めると、 \begin{align} f \left(\boldsymbol{x}\right)&=\prod_{i=1}^{n}{\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{ \left(x_i-\mu\right)^2}{2\sigma^2}}}\\ &= \left(\frac{1}{\sqrt{2\pi\sigma^2}}\right)^n \cdot \mathrm{exp} \left\{-\frac{ \left(x_1-\mu\right)^2}{2\sigma^2}--\frac{ \left(x_2-\mu\right)^2}{2\sigma^2}- \cdots --\frac{ \left(x_n-\mu\right)^2}{2\sigma^2}\right\}\\ &= \left(\frac{1}{2\pi\sigma^2}\right)^\frac{n}{2} \cdot \mathrm{exp} \left\{-\frac{1}{2\sigma^2}\sum_{i=1}^{n} \left(x_i-\mu\right)^2\right\}\\ &= \left(\frac{1}{2\pi\sigma^2}\right)^\frac{n}{2} \cdot \mathrm{exp} \left\{-\frac{1}{2\sigma^2} \left(\sum_{i=1}^{n}x_i^2-2\mu\sum_{i=1}^{n}x_i+n\mu^2\right)\right\}\\ &= \left(\frac{1}{2\pi\sigma^2}\right)^\frac{n}{2} \cdot \mathrm{exp} \left(-\frac{1}{2\sigma^2}\sum_{i=1}^{n}x_i^2\right)\ \mathrm{exp} \left\{-\frac{1}{2\sigma^2} \left(-2\mu\sum_{i=1}^{n}x_i+n\mu^2\right)\right\} \end{align} このとき、 \begin{gather} g \left(t,\theta\right)=\mathrm{exp} \left\{-\frac{1}{2\sigma^2} \left(-2\mu\sum_{i=1}^{n}x_i+n\mu^2\right)\right\}\\ T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i\\ h \left(x\right)= \left(\frac{1}{2\pi\sigma^2}\right)^\frac{n}{2} \cdot \mathrm{exp} \left(-\frac{1}{2\sigma^2}\sum_{i=1}^{n}x_i^2\right) \end{gather} と考えると、 フィッシャー・ネイマンの因子分解定理により、$T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i$ はパラメータ $\mu$ を推定するための十分推定量である。 $\blacksquare$

また、 \begin{gather} g \left(t,\boldsymbol{\theta}\right)= \left(\frac{1}{2\pi\sigma^2}\right)^\frac{n}{2} \cdot \mathrm{exp} \left\{-\frac{1}{2\sigma^2} \left(\sum_{i=1}^{n}x_i^2-2\mu\sum_{i=1}^{n}x_i+n\mu^2\right)\right\} T_1 \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i^2 T_2 \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i h \left(x\right)=1 \end{gather} と考えると、 フィッシャー・ネイマンの因子分解定理により、$\boldsymbol{T} \left(\boldsymbol{X}\right)= \left(\sum_{i=1}^{n}x_i,\sum_{i=1}^{n}x_i^2\right)$ はパラメータベクトル $\boldsymbol{\theta}= \left(\mu,\sigma^2\right)$ を推定するための十分推定量ベクトルである。 $\blacksquare$

【定理】指数分布の十分統計量

【定理】
指数分布の十分統計量
Sufficient Statistics of Exponential Distribution

指数分布 $\mathrm{Ex} \left(\lambda\right)$ のパラメータ $\lambda$ を推定するための十分推定量は、 \begin{gather} T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \end{gather}

証明

証明

指数分布の確率密度関数は、 \begin{gather} f \left(x\right)= \left\{\begin{matrix}\lambda e^{-\lambda x}& \left(0 \le x\right)\\0& \left(x \lt 0\right)\\\end{matrix}\right. \end{gather} 具体的な観測値として、$\boldsymbol{x}= \left\{x_1,x_2, \cdots x_n\right\}$ という値が得られたときの同時確率関数 $f \left(\boldsymbol{x}\right)$ を求めると、 \begin{align} f \left(x\right)&=\prod_{i=1}^{n}{\lambda e^{-\lambda x_i}}\\ &=e^{-\lambda \left(x_1+x_2+ \cdots +x_n\right)} \cdot \lambda^n\\ &=e^{-\lambda\sum_{i=1}^{n}x_i} \cdot \lambda^n \end{align} このとき、 \begin{gather} g \left(t,\theta\right)=e^{-\lambda\sum_{i=1}^{n}x_i} \cdot \lambda^n \quad T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \quad h \left(x\right)=1 \end{gather} と考えると、 フィッシャー・ネイマンの因子分解定理により、$T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i$ はパラメータ $\lambda$ を推定するための十分推定量である。 $\blacksquare$

【定理】ガンマ分布の十分統計量

【定理】
ガンマ分布の十分統計量
Sufficient Statistics of Gamma Distribution

ガンマ分布 $\mathrm{Ga} \left(\alpha,\beta\right)$ のパラメータ $\beta$ を推定するための十分推定量は、 \begin{gather} T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \end{gather}

証明

証明

ガンマ分布の確率密度関数は、 \begin{gather} f \left(x\right)= \left\{\begin{matrix}\frac{\beta^\alpha}{\Gamma \left(\alpha\right)}x^{\alpha-1}e^{-\beta x}& \left(0 \le x\right)\\0& \left(x \lt 0\right)\\\end{matrix}\right. \end{gather} 具体的な観測値として、$\boldsymbol{x}= \left\{x_1,x_2, \cdots x_n\right\}$ という値が得られたときの同時確率関数 $f \left(\boldsymbol{x}\right)$ を求めると、 \begin{align} f \left(\boldsymbol{x}\right)&=\prod_{i=1}^{n}{\frac{\beta^\alpha}{\Gamma \left(\alpha\right)}x_i^{\alpha-1}e^{-\beta x_i}}\\ &=\frac{\beta^{n\alpha}}{ \left\{\Gamma \left(\alpha\right)\right\}^n} \cdot e^{-\beta \left(x_1+x_2+ \cdots +x_n\right)} \cdot \left(x_1+x_2+ \cdots +x_n\right)^{\alpha-1}\\ &=\frac{\beta^{n\alpha}}{ \left\{\Gamma \left(\alpha\right)\right\}^n} \cdot e^{-\beta\sum_{i=1}^{n}x_i} \cdot \left(\sum_{i=1}^{n}x_i\right)^{\alpha-1} \end{align} このとき、 \begin{gather} g \left(t,\theta\right)=\frac{\beta^{n\alpha}}{ \left\{\Gamma \left(\alpha\right)\right\}^n} \cdot e^{-\beta\sum_{i=1}^{n}x_i} \quad T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i \quad h \left(x\right)= \left(\sum_{i=1}^{n}x_i\right)^{\alpha-1} \end{gather} と考えると、 フィッシャー・ネイマンの因子分解定理により、$T \left(\boldsymbol{X}\right)=\sum_{i=1}^{n}x_i$ はパラメータ $\beta$ を推定するための十分推定量である。 $\blacksquare$

参考文献

  • 野田 一雄, 宮岡 悦良 著. 入門・演習数理統計. 共立出版, 1990, p.200-201
  • 野田 一雄, 宮岡 悦良 著. 入門・演習数理統計. 共立出版, 1990, p.202-203 練習問題 ex.5.2.1

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ