正在加载图片...
关于最大似然估计法,我们有以下的直观想法:现在已经取到 样本值x1x2 这表明取到这一样本值的概率L(0)比较大 我们当然不会考虑那些不能使样本x1,x2,x1出现的0∈⊙作为0的估 计,再者,如果已知当0=∈时使L(0取很大值,而0中的其它0 值使L(O)取很小值,我们自然认为0作为未知参数0的估计值,较为 合理。由费希尔( R.A. Fisher)引进的最大似然估计法,就是固定样 本观察值x1,x2xn,在0取值的可能范围0内挑选使似然函数 L(x1,x2,x;)达到最大的参数值日,作为参数0的估计值。即使 L(x12x2,…,xn;6)=maxL(x1,x2…xn;) 6∈ 这样得到的O与样本值xx2“x有关,常记为(x1,x2,…x) 称为参数0的最大似然估计值,而相应的统计量 称为参数θ的最大似然估计量。 6(X1,X2…Xn) 这样,确定最大似然估计量的就归结为微分学中的求最大值的 问题了 在很多情形下,p(x,0)关于0可微,这时0可从方程 L(6)=0 解得。又因L(0)与nL(0)在同一0处 d关于最大似然估计法,我们有以下的直观想法:现在已经取到 样本值x1 ,x2 ,┅,xn了,这表明取到这一样本值的概率L(θ)比较大。 我们当然不会考虑那些不能使样本x1 ,x2 ,┅,xn出现的θ∈Θ 作为θ的估 计,再者,如果已知当θ=θ0∈Θ 时使L(θ)取很大值,而Θ中的其它θ 值使L(θ)取很小值,我们自然认为θ0作为未知参数θ的估计值,较为 合理。由费希尔(R.A.Fisher)引进的最大似然估计法,就是固定样 本观察值x1 ,x2 ,┅,xn,在θ取值的可能范围Θ内挑选使似然函数 L(x1 ,x2 ,…,xn ;θ) 达到最大的参数值 ,作为参数θ的估计值。即使 这样得到的 与样本值x1 ,x2 ,┅,xn有关,常记为 , 称为参数θ的最大似然估计值,而相应的统计量 称为参数θ的最大似然估计量。 这样,确定最大似然估计量的就归结为微分学中的求最大值的 问题了。 在很多情形下,p(x,θ)关于θ可微,这时θ可从方程 解得。又因L(θ)与ln L(θ)在同一θ处  ˆ max ( , , , ; ) ˆ ( , , , 1 2  1 2   n n L x x  x L x x  x  ; )= ( , , , ) ˆ 1 2 n  x x  x ( , , , ) ˆ  X1 X2  Xn ( ) = 0  L d d  ˆ
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有