正在加载图片...
称为回横型 3.-回型脯胃戒线型苗朴是有个变 量的线性的随的系 yi=a+bXi+E 式中:y·因变量(预则量);X变量 Er机书燙颜;ab筱變数 珂计假设条件下,有 y=a+oX (9.10) 这是个程,属于元回樊型 在预中,预的是機n组 凶X,y),=-12…,n,估计回尸樊型的数ab,并记a b于是将有的十来程: y=a+bx (9.11) 称为样不回预赃程,叫归数甸回缕数。 4教数a的楒样元线生归程的 程,实是如由n组统数据X,y,=12…n,求ab的过程 求觞方法倨多,逆介缙最小乘去 将样本薮椐x代λ方程式912),就舞组应样本y的 估计值: y=a+bx (912) y与之差称为佑蹉差瑳,以e记之, yi-yi=ei 则e=y-y=y-a-bx 估计a,b,亦钡鲂V和小,即168 称为回归模型。 3.一元线性回归模型。所谓一元线性回归模型描述的是只有一个自变 量的、线性的、随机的函数关系: yi=a+bxi+ε i 式中:yi——因变量(预测变量);xi——自变量; ε i——随机干扰的误差项;a,b——待定参数。 在统计假设条件下,有: y=a+bx (9.10) 这是一个直线方程,属于一元线性回归模型。 在预测实践中,预测者的任务是根据n组历史统计数据或观察记录 (xi,yi),i=1,2,…,n,估计出线性回归模型中的参数a,b,并记它们为a, b。于是将根据有限的统计数据所估计得来的方程: y=a+bx (9.11) 称为样本回归预测方程,叫做回归系数(或回归参数)。 4.回归系数a,b 的确定。根据样本统计数据求一元线性回归方程的 过程,实际是如何由n组统计数据{xi,yi},i=1,2,…,n,求a,b的过程。 求解方法很多,这里只介绍最小二乘法。 将样本数据xi代入方程式(9.12),就得到一组相应于样本数据yi的 估计值: y=a+bx (9.12) yi与  yi 之差称为估计误差或残差,以ei记之, yi-yi= ei 则 ei = yi- yi = yi-a-bxi 估计a,b,亦即确定的准则是使残差平方和为最小,即使
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有