正在加载图片...
E(G2)=∑E(x2)-Ex)=∑E(x)-(Dx+(Ex) =(G2+μ2) 若在G2的两边同乘以n,则所得到的估计量就是无偏了 即E(n=162)=n=1()=a2, 而—G2恰恰就是样本方差S ∑(X1-)2 可见,S2可以作为σ2的估计,而且是无偏估计。因此,常用S2作为方差σ2的估计量。 从无偏的角度考虑,S2比B2作为G2的估计好。 在实际应用中,对整个系统(整个实验)而言无系统偏差,就一次实验来讲,θ可能偏 大也可能偏小,实质上并说明不了什么问题,只是平均来说它没有偏差。所以无偏性只有在 大量的重复实验中才能体现出来;另一方面,我们注意到:无偏估计只涉及到一阶矩(均值), 虽然计算简便,但是往往会出现一个参数的无偏估计有多个,而无法确定哪个估计量好 6 例3:设总体X~P(0),密度为p(x,O) 其中>0为未知,又 0其它 (x12X2…,Xn)是X的一样本,则X和n=mmn{X1,X2,…,Xn门都是O的无偏估计。 证明:∵E(X)=E(X)=θ,∴是θ的无偏估计 而Z=mn{X1,X2…Xn)则服从参数为一的指数分布,其密度为 fmin(x: 0) E(Z)=-,→E(n)=b 0其它 即n是O的无偏估计。事实上,(X1,X2…,Xn)中的每一个均可作为O的无偏估计。 那么,究竟哪个无偏估计更好、更合理,这就看哪个估计量的观察值更接近真实值的附 近,即估计量的观察值更密集的分布在真实值的附近。我们知道,方差是反映随机变量取值 的分散程度。所以无偏估计以方差最小者为最好、最合理。为此引入了估计量的有效性概念。9 2 2 2 2 2 1 2 2 1 2 2 2 1 1 1  − +  =  =  +  −   =  − =  − + = = n n ) n ( ) ( E( X ) ( DX ( EX ) ) n E( X ) E( X ) n E( ˆ ) n i n i i 若在 2  ˆ 的两边同乘以 n −1 n ,则所得到的估计量就是无偏了 即 2 2 2 ( ˆ ) 1 ˆ ) 1 (   =  − = − E n n n n E , 而 2 ˆ 1  n − n 恰恰就是样本方差 = − − = n i Xi X n S 1 2 2 ( ) 1 1 可见, 2 S 可以作为 2  的估计,而且是无偏估计。因此,常用 2 S 作为方差 2  的估计量。 从无偏的角度考虑, 2 S 比 B2 作为 2  ˆ 的估计好。 在实际应用中,对整个系统(整个实验)而言无系统偏差,就一次实验来讲,  ˆ 可能偏 大也可能偏小,实质上并说明不了什么问题,只是平均来说它没有偏差。所以无偏性只有在 大量的重复实验中才能体现出来;另一方面,我们注意到:无偏估计只涉及到一阶矩(均值), 虽然计算简便,但是往往会出现一个参数的无偏估计有多个,而无法确定哪个估计量好。 例 3:设总体 X ~ P( ) ,密度为         = − 0 其它 0 1 ( ; ) e x p x x    其中   0 为未知,又 ( , , , ) X1 X2  Xn 是 X 的一样本,则 X 和 [min{ , , , }] nZ = n X1 X2  Xn 都是  的无偏估计。 证明: E(X) = E(X) = , X 是  的无偏估计 而 min{ , , , ) Z = X1 X2  Xn 则服从参数为 n  的指数分布,其密度为         = − 0 其它 0 ( ; ) min e x n f x nx        ( ) = , E(n ) = n E Z 即 nZ 是  的无偏估计。事实上, ( , , , ) X1 X2  Xn 中的每一个均可作为  的无偏估计。 那么,究竟哪个无偏估计更好、更合理,这就看哪个估计量的观察值更接近真实值的附 近,即估计量的观察值更密集的分布在真实值的附近。我们知道,方差是反映随机变量取值 的分散程度。所以无偏估计以方差最小者为最好、最合理。为此引入了估计量的有效性概念
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有