正在加载图片...
在一组数据点中画出一条直线的标准是使预测误差的平方和最小 我们使观测值和预测值之间差异的平方和最小。用此方法得到的直 线被称作为常规最小二乘回归线 ordinary| east squares regression lines, OLS) 模型预测的好坏或拟合优度( goodness of fi的标准是看R squared(确定系数/决定系数, coefficient of determination)R- squared是指因变量方差能够被自变量方差所解释的部分或比例。 ( R-squared= Explained variation/ Total variation)在上例中 R-squared=0.53,或是53%,这说明fedu解释了53%的受访者的 受教育程度的差异。 二元回归的局限性:如果一个变量没有被包含在方程中,但它是因 变量的真正原因,那么方程中变量的系数将是有偏的( biased), 即会高估或低估了给定自变量和因变量之间真实的因果关系。这就 是省略变量偏误( omitted variable bias)或模型设定误差 (specification error) Fudan UniversityFudan University ⚫ 在一组数据点中画出一条直线的标准是使预测误差的平方和最小 – 我们使观测值和预测值之间差异的平方和最小。用此方法得到的直 线被称作为常规最小二乘回归线(ordinary least squares regression lines, OLS)。 ⚫ 模型预测的好坏或拟合优度(goodness of fit)的标准是看R￾squared (确定系数/决定系数,coefficient of determination). R￾squared是指因变量方差能够被自变量方差所解释的部分或比例。 (R-squared = Explained variation / Total variation )在上例中 R-squared=0.53, 或是53%, 这说明fedu 解释了53%的受访者的 受教育程度的差异。 ⚫ 二元回归的局限性:如果一个变量没有被包含在方程中,但它是因 变量的真正原因,那么方程中变量的系数将是有偏的(biased), 即会高估或低估了给定自变量和因变量之间真实的因果关系。这就 是省略变量偏误(omitted variable bias)或模型设定误差 (specification error)。 12
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有