正在加载图片...
a+bx,那么对于任一x0,在y=0时有e0=0-y;在y=1时有eo=1-y 这就是说,虽然上述第一个关于e的关键假设(即e的期望值为0)仍然保持 着,因而OLS对b的估计是无偏的,然而关于e;有不变方差的假设已不再能维 持。实际上,c的方差是随自变量的取值进行系统的变动的。这是因为对于不同 的自变量值x,由于因变量估计值ⅳ=a+bx;也不同,那么其误差能取的两项 值也相应变化,最后导致e,的方差发生系统变动。 作为结果,OLS的估计b虽然是无偏的但不是最好的,就是说它们不具有 尽可能小的抽样方差。随之而来的是,对抽样方差的估计将是错误的,并且任何 假设检验(如t检验和F检验)或在这些抽样方差的基础上建立的置信区间都 是无理的,即使对于非常大的样本也是同样。因此,OLS对二分因变量的回归 估计尽管是无偏的、但不能令人满意。 有人提出了一种两步的加权估计来改正对线性概率模型的OLS回归,并命 名为WLS方法( weighted Least squares)。这种方法计算的回归估计不仅是无偏 的,而且具有尽可能小的抽样方差,参数估计的标准误对建立假设检验及其他来 说也是正确的。但是,由于e;只能取两个值便不能是正态分布的。只有对于较 大样本抽样误差才近似于正态分布,WLS估计的b才可以作为近似正态分布 假设检验及其他工作才可以照常进行,所以这种方法只有对较大样本才适用。 但是WLS还是线性回归,只是估计方法有所变化,它与原来的OLS共同的 问题在于,如果它们以虚拟变量作为因变量,其因变量的估计值不仅可以处于0 和1之间,而且还可以大大超出和远离这个值域,那么当因变量作为概率来理解 时就产生了困难。 2.线性概率模型及其问题 当因变量是只能取值0和1、并作为事件发生与不发生两种情况来理解时, S和WLS都是线性概率模型( linear probability model,简称为LPM)。“线 性”指模型中假设自变量对因变量的作用是线性的;“概率”则是指将模型的因 变量理解为概率。这样一来,回归模型就是在分析当自变量变化时概率 p(y=1)是如何变化的。这时,解释不同自变量值所产生的因变量估计却有很 大问题。 首先,概率当然要限制于0至1的区间之中,然而线性回归方程却不能做到 这一点。结果,线性概率模型就必须生硬规定,凡大于1的y估计值都作为1来 理解,而小于0的y估计值都要作为0来理解。 其次,线性概率的假设往往与实际情况不相吻合。这就涉及到现实当中存在
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有