統計検定 1級 2018年 統計数理 問2 超幾何分布と捕獲再捕獲法

公開日:

【2023年6月2週】 【B000】数理統計学 【D000】統計検定 過去問

この記事をシェアする
  • B!
サムネイル画像

本稿には、2018年に実施された統計検定1級『統計数理』 問2の自作解答案を掲載しています。なお、閲覧にあたっては、以下の点にご注意ください。

  • 著作権の関係上、問題文は、掲載することができません。申し訳ありませんが、閲覧者のみなさまでご用意いただければ幸いです。
  • この答案は、あくまでも筆者が自作したものであり、公式なものではありません。正式な答案については、公式問題集をご参照ください。
  • 計算ミスや誤字・脱字などがありましたら、コメントなどでご指摘いただければ大変助かります。
  • スマートフォンやタブレット端末でご覧の際、数式が見切れている場合は、横にスクロールすることができます。

〔1〕超幾何分布の成功確率と同時成功確率

(I)i 番目の成功確率
抽出した球を、取り出した順に1列に並べていくとき、N 個の中から n 個を選んで並べる場合の数は、 NPn 通りある。 i 番目を成功とするためには、 まず最初に、i 番目に赤球を配置し、
それから残りの n1 個を自由に並べればよい。
このような並べ方は、 i 番目の赤球の選び方が M 通り
残りの n1 個の並べ方が N1Pn1 通り
なので、 全部で MN1Pn1 通りある。 したがって、i 番目の成功確率は、 P(Xi=1)=MN1Pn1NPn=M(N1)!{(N1)(n1)}!(Nn)!N!=M(N1)!(Nn)!(Nn)!N!=MN

(II)i,j 番目の同時成功確率
i 番目と j 番目を成功とするためには、 まず最初に、i 番目と j 番目に赤球を配置し、
それから残りの n2 個を自由に並べればよい。
このような並べ方は、 i 番目の赤球の選び方が M 通り
j 番目の赤球の選び方が M1 通り
残りの n2 個の並べ方が N2Pn2 通り
なので、 全部で M(M1)N2Pn2 通りある。 したがって、i 番目と j 番目の同時成功確率は、 P(Xi=1,Xj=1)=M(M1)N2Pn2NPn=M(M1)(N2)!{(N2)(n2)}!(Nn)!N!=M(M1)(N2)!(Nn)!(Nn)!N!=M(M1)N(N1)

〔2〕各試行の期待値・分散・共分散

(i)抽出結果の期待値
期待値の定義式 E(X)=xf(x) より、i 番目の抽出結果の期待値は、 E(Xi)=1P(Xi=1)+0P(Xi=0)=MN

(ii)抽出結果の共分散
期待値の定義式 E(XY)=y=x=xyf(x,y) より、i,j 番目の抽出結果の積の期待値は、 E(XiXj)=11P(Xi=1,Xj=1)+10P(Xi=1,Xj=0)+01P(Xi=0,Xj=1)+00P(Xi=0,Xj=0)=M(M1)N(N1) 共分散の公式 Cov(X,Y)=E(XY)E(X)E(Y) より、 Cov(X,Y)=M(M1)N(N1)MNMN=MN(M1N1MN)=MNN(M1)(N1)MN(N1)=MNNMNNM+kN(N1)=M(NM)N2(N1)

(iii)抽出結果の分散
期待値の定義式 E(X2)=x2f(x) より E(Xi2)=12P(Xi=1)+02P(Xi=0)=MN 分散の公式 V(X)=E(X2){E(X)}2 より、 V(Xi)=MNM2N2=MN(1MN)=MNNMN

〔3〕超幾何分布の確率関数の導出

N 個の中から、n 個を抽出する選び方は、 NCn 通りある。 このうち、赤球が x 個となる選び方は、 まず、赤球 M 個の中から、x 個を抽出し、
青球 NM 個の中から、残りの nx 個を抽出
すればよいので、 そのような選び方は、 MCn×NMCnx 通りある。 したがって、このような事象が起こる確率は(数学的確率によって)、 P(X=x)=MCn×NMCnxNCn

〔4〕超幾何分布の期待値と分散

(i)期待値
期待値の性質 E(i=1nXi)=i=1nE(Xi) より、 E(X)=E(i=1nXi)=i=1nMN=nMN (ii)分散
和の分散の一般公式より、 V(X)=i=1nV(Xi)+jii=1nCov(Xi,Xj) ここで、共分散について、ij となる (i,j) の組み合わせは、 i の選び方が n 通り
j の選び方が n1 通り
あるので、 全部で n(n1) 通りある。 したがって、 V(X)=nMNNMN+n(n1)(MNNMN1N1)=nMNNMN(1n1N1)=nMNNMNN1n+1N1=nMNNMNNnN1

〔5〕赤球の個数の推定量

〔4〕の結果より、 NN+KM=K と置き換えると、 E(X)=nKN+K これを N について解くと、 N+K=nKE(X)N=nKE(X)K(1)N=K{nE(X)1} いっぽう、 V(X)=N+KnN+K1KN+K(1KN+K)n ここで、N のときの極限を取ると、 limNV(X)=10(10)n=0 したがって、チェビシェフの不等式より、 limNP(|XE(X)|ε)limNV(X)ε2=0 すなわち、X は母平均 E(X) の一致推定量となり、 XE(X) よって、式 (1) より、 N^=K(nX1) 両辺の分散を取ると、 V(N^)=V{K(nX1)}(2)=n2K2V(1X) ここで、g(x)=1x を期待値まわりで2次の項までテイラー展開すると、 g(x)g{E(X)}+g{E(X)}{xE(X)}+g{E(X)}{xE(X)}21x1E(X)1{E(X)}2{xE(X)} 両辺の分散を取ると、 V(1X)V[1E(X)1{E(X)}2{xE(X)}]V[X{E(X)}2]1{E(X)}4V[X] 期待値と分散 E(X),V(X) を代入すると、 V(1X)(N+KnK)4N+KnN+K1KN+KNN+Kn したがって、式 (2) より、 V(N^)n2K2(N+KnK)4N+KnN+K1nKN+KNN+KN(N+K)2nKN+KnN+K1N+KN+K1(N+K)(N+Kn)NnK N のとき、N+KN+K1 となるので、 V(N^)(N+K)(N+Kn)NnK よって、 ε=(N+K)(N+Kn)nNK

関連記事

自己紹介

自分の写真

yama

大学時代に読書の面白さに気づいて以来、読書や勉強を通じて、興味をもったことや新しいことを学ぶことが生きる原動力。そんな人間が、その時々に学んだことを備忘録兼人生の軌跡として記録しているブログです。

このブログを検索

ブログ アーカイブ

QooQ