代表的な確率分布の最尤推定量とフィッシャー情報量の導出

公開日: 更新日:

【2023年4月3週】 【B000】数理統計学 【B070】統計的推定

この記事をシェアする
  • B!
サムネイル画像

本稿では、代表的な確率分布(二項分布、ポアソン分布、幾何分布、正規分布、指数分布、ガンマ分布)の最尤推定量とフィッシャー情報量を導出しています。

なお、閲覧にあたっては、以下の点にご注意ください。

  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。

データの形式

それぞれの確率分布に従う確率変数 X={X1,X2,,Xn} について、 具体的な観測値として、 x={x1,x2,,xn} という値が得られたとする。

【定理】二項分布の最尤推定

【定理】
二項分布の最尤推定
Maximum Likelihood Estimation for Binomial Distribution

二項分布 B(n,p) のパラメータ p の最尤推定量は、 p^=xn フィッシャー情報量とクラメール・ラオの下限は、 In(p)=np(1p)p(1p)nV(p^) 二項分布においては、観測情報量と期待情報量が i(p^)=I(p^) で等しい。

証明

証明

二項分布の確率関数は、 f(x)={nCxpx(1p)nxx=0,1,,n0other

(i)最尤推定量
尤度関数 L(θ) を求めると、 L(p)=nCxpx(1p)nx 対数尤度関数 l(θ)=logL(θ) を求めると、 l(p)=log{nCxpx(1p)nx}=xlogp+(nx)log(1p)+lognCx スコア関数 S(θ)=ddθlogL(θ) を求めると、 S(p)=xpnx1p 尤度方程式 S(θ)=0 を解くと、 0=1p^xnx1p^(1p^)x(nx)p^=0xp^xnp^+p^x=0np^=xp^=xn

(ii)フィッシャー情報量とクラメール・ラオの下限
フィッシャー情報量の定義式 In(θ)=E[{S(θ)}2] より、 In(p)=E[{xnpp(1p)}2]=E[x22xnp+n2p2p2(1p)2]=1p2(1p)2{E(X2)2npE(X)+n2p2} 二項分布の期待値と分散の公式より、 E(X)=npV(X)=np(1p) 分散の公式の変形 E(X2)=V(X)+{E(X)}2 より、2次モーメントは、 E(X2)=np(1p)+n2p2=n2p2np2+np したがって、 In(p)=1p2(1p)2(n2p2np2+np2npnp+n2p2)=np(1p)p2(1p)2=np(1p) クラメール・ラオの不等式 1In(θ)V(θ^) より、 p(1p)nV(p^)

[別解] In(p)=E[2θ2l(θ)] としたとき In(p)=E[x2xp+np2p2(1p)2]=1p2(1p)2{E(X)2pE(X)+np2} 二項分布の期待値の公式 E(X)=np より、 In(p)=np2np2+np2p2(1p)2=npnp2p2(1p)2=np(1p)p2(1p)2=np(1p)

最尤推定された期待情報量は、p=p^ を代入して、 I(p^)=Np^(1p^) いっぽう、最尤推定された観測情報量は、p=p^ を代入して、 i(p^)=xp^2+Nx(1p^)2=x(1p^)2+p^2(Nx)p^2(1p^)2=x2p^x+p^2x+p^2Np^2xp^2(1p^)2=x2p^x+p^2Np^2(1p^)2 x=Np^ より、 i(p^)=p^N2p^2N+p^2Np^2(1p^)2=p^Np^2Np^2(1p^)2=p^N(1p^)p^2(1p^)2=Np^(1p^) したがって、 i(p^)=I(p^)

【定理】ポアソン分布の最尤推定

【定理】
ポアソン分布の最尤推定
Maximum Likelihood Estimation for Poisson Distribution

ポアソン分布 Po(λ) のパラメータ λ の最尤推定量は、 λ^=1ni=1nxi フィッシャー情報量とクラメール・ラオの下限は、 In(λ)=nλλnV(λ^)

証明

証明

ポアソン分布の確率関数は、 f(x)={λxeλx!(x=0,1,2,)0other

(i)最尤推定量
尤度関数 L(θ) を求めると、 L(λ)=i=1nλxieλxi!=λ(x1+x2++xn)enλ1x1!1x2!1xn!=λi=1nxienλi=1n1xi! 対数尤度関数 l(θ)=logL(θ) を求めると、 l(λ)=log(λi=1nxienλi=1n1xi!)=i=1nxilogλnλ+logi=1n1xi! スコア関数 S(θ)=ddθlogL(θ) を求めると、 S(λ)=1λi=1nxin 尤度方程式 S(θ)=0 を解くと、 0=1λ^i=1nxini=1nxinλ^=0nλ^=i=1nxiλ^=1ni=1nxi

(ii)フィッシャー情報量とクラメール・ラオの下限
フィッシャー情報量の定義式 In(θ)=E[{S(θ)}2] より、 I1(λ)=E[(xλ1)2]=E(x2λ22xλ+1)=1λ2E(X2)2λE(X)+1 ポアソン分布の期待値と分散の公式より、 E(X)=λV(X)=λ 分散の公式の変形 E(X2)=V(X)+{E(X)}2 より、2次モーメントは、 E(X2)=λ2+λ したがって、 I1(λ)=1λ2(λ2+λ)2λλ+1=1+1λ2+1=1λ フィッシャー情報量の性質 In(θ)=nI1(θ) より、 In(λ)=nλ クラメール・ラオの不等式 1In(θ)V(θ^) より、 λnV(λ^)

[別解] I1(θ)=E[d2dθ2l(θ)] としたとき I1(λ)=E(xλ2)=1λ2E(X) ポアソン分布の期待値の公式 E(X)=λ より、 I1(λ)=1λ2λ=1λ

【定理】幾何分布の最尤推定

【定理】
幾何分布の最尤推定
Maximum Likelihood Estimation for Geometric Distribution

幾何分布 G(p) のパラメータ p の最尤推定量は、 p^=ni=1nxi+n フィッシャー情報量とクラメール・ラオの下限は、 In(p)=n(p2p+1)p2(1p)2p2(1p)2n(p2p+1)V(p^)p<12

証明

証明

幾何分布の確率関数は、 f(x)={(1p)xpx=0,1,2,0other

(i)最尤推定量
尤度関数 L(θ) を求めると、 L(p)=i=1n(1p)xip=(1p)(x1+x2++xn)pn=(1p)i=1nxipn 対数尤度関数 l(θ)=logL(θ) を求めると、 l(p)=log{(1p)i=1nxipn}={log(1p)i=1nxi}nlogp スコア関数 S(θ)=ddθlogL(θ) を求めると、 S(p)=i=1nxi1pnp 尤度方程式 S(θ)=0 を解くと、 0=i=1nxi1p^np^p^i=1nxin(1p^)=0p^i=1nxin+np^=0p^(i=1nxi+n)=np^=ni=1nxi+n

(ii)フィッシャー情報量とクラメール・ラオの下限
フィッシャー情報量の定義式 In(θ)=E[{S(θ)}2] より、 I1(p)=E[(x1pnp)2]=E{x2(1p)22xp(1p)+1p2}=1(1p)2E(x2)2p(1p)E(x)+1p2 幾何分布の期待値と分散の公式より、 E(X)=1pV(X)=1pp2 分散の公式の変形 E(X2)=V(X)+{E(X)}2 より、2次モーメントは、 E(X2)=1pp2+1p2=2pp2 したがって、 I1(p)=1(1p)22pp22p(1p)1p+1p2=2pp2(1p)22p2(1p)+1p2=(2p)2(1p)+(1p)2p2(1p)2=2p2+2p+12p+p2p2(1p)2=p2p+1p2(1p)2 フィッシャー情報量の性質 In(θ)=nI1(θ) より、 In(p)=n(p2p+1)p2(1p)2 クラメール・ラオの不等式 1In(θ)V(θ^) より、 p2(1p)2n(p2p+1)V(p^)p<12

[別解]I1(θ)=E[d2dθ2l(θ)] としたとき I1(p)=E{x(1p)2+1p2}={1(1p)2E(x)+1p2}=[1(1p)21p+1p2]=[1p(1p)2+1p2]=[p+(1p)2p2(1p)2]=[p+12p+p2p2(1p)2]=p2p+1p2(1p)2

【定理】正規分布の最尤推定

【定理】
正規分布の最尤推定
Maximum Likelihood Estimation for Normal Distribution

正規分布 N(μ,σ2) のパラメータ μ,σ2 の最尤推定量は、 μ^=1ni=1nxiσ^2=1ni=1n(xix¯)2 フィッシャー情報量とクラメール・ラオの下限は、 In(μ)=nσ2In(σ2)=n2σ4σ2nV(μ^)2σ4nV(σ^2)

証明

証明

正規分布の確率密度関数は、 f(x)=12πσe(xμ)22σ2(<x<)

(i)最尤推定量
尤度関数 L(θ) を求めると、 L(μ,σ2)=i=1n12πσe(xiμ)22σ2=(12πσ2)nexp{12σ2i=1n(xiμ)2}=(12πσ2)n2exp{12σ2i=1n(xiμ)2} 対数尤度関数 l(θ)=logL(θ) を求めると、 l(μ,σ2)=log[(12πσ2)n2exp{12σ2i=1n(xiμ)2}]=n2log2πσ212σ2i=1n(xiμ)2=n2(log2π+logσ2)12σ2i=1n(xiμ)2=n2(log2π+logσ2)12σ2(i=1nxi22μi=1nxi+nμ2)

(a)パラメータ μ に関するスコア関数 S(θ)=μlogL(θ) を求めると、 S(μ)=12σ2(2nμ2i=1nxi) 尤度方程式 S(θ)=0 を解くと、 0=12σ2(2nμ^2i=1nxi)nμ^i=1nxi=0nμ^=i=1nxiμ^=1ni=1nxi

(b)パラメータ σ2 に関するスコア関数 S(θ)=σ2logL(θ) を求めると、 S(σ2)=n2σ2+12σ4i=1n(xiμ)2 尤度方程式 S(θ)=0 を解くと、 0=n2σ^2+12σ^4i=1n(xiμ)20=nσ^2+i=1n(xiμ)2σ^2=1ni=1n(xiμ)2 ここで、平均 μ は未知数なので、その最尤推定量 μ^=x¯ で置換すると、 σ^2=1ni=1n(xix¯)2

(ii)フィッシャー情報量とクラメール・ラオの下限
(a)フィッシャー情報量の定義式 In(θ)=E[{S(θ)}2] より、 I1(μ)=E[{1σ2(xμ)}2]=E{1σ4(xμ)2}=1σ4E{(xμ)2} 分散の定義式 E{(Xμ)2}=σ2 より、 I1(μ)=1σ4σ2=1σ2 フィッシャー情報量の性質 In(θ)=nI1(θ) より、 In(μ)=nσ2 クラメール・ラオの不等式 1In(θ)V(θ^) より、 σ2nV(μ^)

[別解] I1(θ)=E[d2dθ2l(θ)] としたとき I1(μ)=E(1σ2)=1σ2

(b)フィッシャー情報量の定義式 In(θ)=E[d2dθ2l(θ)] より、 I1(σ2)=E(12σ4(xμ)2σ6)=12σ4+1σ6E{(xμ)2} 分散の定義式 E{(Xμ)2}=σ2 より、 I1(σ2)=12σ4+1σ4=12σ4 フィッシャー情報量の性質 In(θ)=nI1(θ) より、 In(σ2)=n2σ4 クラメール・ラオの不等式 1In(θ)V(θ^) より、 2σ4nV(σ^2)

【定理】指数分布の最尤推定

【定理】
指数分布の最尤推定
Maximum Likelihood Estimation for Exponential Distribution

指数分布 Ex(λ) のパラメータ λ の最尤推定量は、 λ^=ni=1nxi フィッシャー情報量とクラメール・ラオの下限は、 In(λ)=nλ2λ2nV(λ^)

証明

証明

指数分布の確率密度関数は、 f(x)={λeλx(0x)0(x<0)

(i)最尤推定量
尤度関数 L(θ) を求めると、 L(λ)=i=1nλeλxi=eλ(x1+x2++xn)λn=eλi=1nxiλn 対数尤度関数 l(θ)=logL(θ) を求めると、 l(λ)=log(eλi=1nxiλn)=λi=1nxi+nlogλ スコア関数 S(θ)=ddθlogL(θ) を求めると、 S(λ)=i=1nxi+nλ 尤度方程式 S(θ)=0 を解くと、 0=i=1nxi+nλ^λ^i=1nxi=nλ^=ni=1nxi

(ii)フィッシャー情報量とクラメール・ラオの下限
フィッシャー情報量の定義式 In(θ)=E[{S(θ)}2] より、 I1(λ)=E[(x+1λ)2]=E(λ2x22λx+1λ2)=1λ2{λ2E(X2)2λE(X)+1} 指数分布の期待値の公式より、 E(X)=1λ 指数分布の分散の公式より、 V(X)=1λ2 分散の公式の変形 E(X2)=V(X)+{E(X)}2 より、2次モーメントは、 E(X2)=1λ2+1λ2=2λ2 したがって、 I1(λ)=1λ2(λ22λ22λ1λ+1)=1λ21=1λ2 フィッシャー情報量の性質 In(θ)=nI1(θ) より、 In(λ)=nλ2 クラメール・ラオの不等式 1In(θ)V(θ^) より、 λ2nV(λ^)

[別解]I1(θ)=E[d2dθ2l(θ)] としたとき I1(p)=E(1λ2)=1λ2

【定理】ガンマ分布の最尤推定

【定理】
ガンマ分布の最尤推定
Maximum Likelihood Estimation for Gamma Distribution

ガンマ分布 Ga(α,β)α が既知のとき、パラメータ β の最尤推定量は、 β^=nαi=1nxi フィッシャー情報量とクラメール・ラオの下限は、 In(β^)=nαβ2β2nαV(β^)

証明

証明

ガンマ分布の確率密度関数は、 f(x)={βαΓ(α)xα1eβx(0x)0(x<0) ただし、α は既知とする。

(i)最尤推定量
尤度関数 L(θ) を求めると、 L(α,β)=i=1nβαΓ(α)xiα1eβxi=βnα{Γ(α)}neβ(x1+x2++xn)(x1x2xn)α1=βnα{Γ(α)}neβi=1nxi(i=1nxi)α1 対数尤度関数 l(θ)=logL(θ) を求めると、 l(α,β)=log[βnα{Γ(α)}neβi=1nxi(i=1nxi)α1]=nαlogβnlogΓ(α)βi=1nxi+(α1)i=1nlogxi パラメータ β に関するスコア関数 S(θ)=θlogL(θ) を求めると、 S(β)=nαβi=1nxi 尤度方程式 S(θ)=0 を解くと、 0=nαβ^i=1nxiβ^i=1nxi=nαβ^=nαi=1nxi

(ii)フィッシャー情報量とクラメール・ラオの下限
フィッシャー情報量の定義式 In(θ)=E[{S(θ)}2] より、 I1(β)=E[(αβx)2]=E(β2x22αβx+α2β2)=1β2{β2E(X2)2αβE(X)+α2} ガンマ分布の期待値の公式より、 E(X)=αβ ガンマ分布の分散の公式より、 V(X)=αβ2 分散の公式の変形 E(X2)=V(X)+{E(X)}2 より、2次モーメントは、 E(X2)=αβ2+α2β2=α(α+1)β2 したがって、 I1(β^)=1β2{β2α(α+1)β22αβαβ+α2}=1β2α=αβ2 フィッシャー情報量の性質 In(θ)=nI1(θ) より、 In(β^)=nαβ2 クラメール・ラオの不等式 1In(θ)V(θ^) より、 β2nαV(β^)

[別解] I1(θ)=E[d2dθ2l(θ)] としたとき I1(β)=E(αβ2)=αβ2

参考文献

  • 小寺 平治 著. 数理統計:明解演習. 共立出版, 1986, p.117, p.124
  • 野田 一雄, 宮岡 悦良 著. 入門・演習数理統計. 共立出版, 1990, p.198, p.230-231

関連記事

  • 小寺 平治 著. 数理統計:明解演習. 共立出版, 1986, p.117, p.124
  • 野田 一雄, 宮岡 悦良 著. 入門・演習数理統計. 共立出版, 1990, p.198, p.230-231

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ