
第3章多元线性回归模型多元线性回归模型与假定条件最小二乘法(OLS)最小二乘估计量的特性可决系数显著性检验与置信区间预测预测的评价指标建模过程中应注意的问题file:li-3-1file:b1c4案例分析file:5line01
第3章 多元线性回归模型 多元线性回归模型与假定条件 最小二乘法(OLS) 最小二乘估计量的特性 可决系数 显著性检验与置信区间 预测 预测的评价指标 建模过程中应注意的问题 案例分析 file:li-3-1 file:b1c4 file:5line01

第3章多元线性回归模型3.1多元线性回归模型与假定条件Y,= B +βiXn+ BXn +...+ βX+ ut当给定一个样本(yt,x,x2..,xtk),t=1,2,.,T时,上述模型表示为Yi=βo+BiXi1+ βX12 +...+β-Xik+u1,Y2=β +BiX21 + BX22 +...+ B X2k + u29经济意义:X是Y的重要解释变量代数意义:Y与X,存在线性关系几何意义:Y是分布在多维平面附近的点YT=β+βXT1+βXT2+...+βXT+uT[Y1[βo]Xil..Xij..XikuiY2X21β1..X2j...X2ku2+:::1 XTI... XTj...XTkJTx(k+)LBkJ(k+1)xlYT JT×I[uT JTx]Y=Xβ+u其中:Y与X已知,β与u未知。(第4版第45页)
第3章 多元线性回归模型 3.1 多元线性回归模型与假定条件 (第4版第45页) 经济意义:Xt j是Yt的重要解释变量 代数意义:Yt与Xt j存在线性关系 几何意义:Yt是分布在多维平面附近的点

例3-1YX1X2t(收入)(价格)(需求量)195856Y,= β +βXu+ βXn + u28485336376046867057377856988458 = β +βi(9)+ β2(56) + u1,79849148=βo +βi(8)+β2(53) +u2,87868293108100588 = β +βi(5) +β(120)+ uT1088120

3.1多元线性回归模型与假定条件为保证得到最优估计量,回归模型应满足如下假定条件:0假定(1):E(u)=0=(第4版第47页)0假定(2):误差项同方差、非自相关001000000Var (u) = E(a a) = l= 00006-假定(3):解释变量与误差项相互独立。E(X'u)=0假定(4):解释变量之间线性无关。rk(X'X)=rk(X)=k+1解释变量是非随机的,且当T→8时,T'X'X→Q假定(5):其中Q是一个有限值的非退化矩阵
3.1 多元线性回归模型与假定条件 (第4版第47页)

3.2 最小二乘法 (OLS)最小二乘(OLS)法的原理是求残差平方和最小。代数上是求极值问题。minS=(Y-Xβ)'(Y-Xβ)=Y'Y-β'X'Y-Y'Xβ+β'X'Xβ=YYE2β'X'Y+β'X'Xβ因为Y'Xβ是一个标量,所以有Y'Xβ=β'X'Y。上式的一阶条件为:as-2X'Y+2X'Xβ=0aβX'Y=X'Xβ因为(X'X)是一个非退化矩阵(假定(5)),所以有β=(X'X)"X'YGeorgeUdnyYule(1871-1951)(第4版第51页)
3.2 最小二乘法(OLS) George Udny Yule(1871-1951) 。 。 (第4版第51页)

3.2 最小二乘法(OLS)β的最小二乘(OLS)估计公式也可以用下面的方式推导。对估计的回归模型Y=Xβ+左乘一个X,X'Y=X'Xβ+X'a根据(最小二乘)估计的回归函数的性质(4),X'i=0有X'Y=X'Xββ=(X'X)"x'Y高斯一马尔可夫定理:若前述假定条件成立,OLS估计量是最佳线性无偏估计量。βB具有无偏性,最小方差特性,一致性求出β,估计的回归模型写为Y=Xβ+u=Y+a
3.2 最小二乘法(OLS)

2元线性回归模型离差的分解1(f-Y)=itYY = βo + β,X1,+ β2 X2(Y-Y)YXlt
2元线性回归模型离差的分解

110110100100例题3.190908080Dependent Variable:Y70-70Method:Least Squares6060Date:01/31/07Time:20:485050Xtx2Sample:110toLO5870100Includedobservations:1060901107912025013Prob.VariableStd. ErrorCoefficientt-StatisticYX1obsX2589156c113.83430.004928.165574.041612253488X1-8.3553422.290749-3.6474280.0082363760X20.39720.1800720.1997270.901589468706573778R-squared0.88313678.00000Meandependent var6985840.84974619.57890Adjusted R-squaredS.D.dependent var798491S.E.of regression7.5892907.134678Akaike infocriterion867882Sum squared resid403.18137.225454Schwarzcriterion93108100-32.6733926.44931Log likelihoodF-statistic108851200.000546Durbin-Watson stat1.767143Prob(F-statistic)Y:某商品需求量X1:该商品价格= 113.83 - 8.36 X1 + 0.18 X2X2:消费者平均收入(0.9)(4.0)(-3.6)(第4版第54页)R2=0.88. F-26.4. T-10
例题3.1 Y: 某商品需求量 X1:该商品价格 X2:消费者平均收入 = 113.83 - 8.36 X1 + 0.18 X2 (4.0) (-3.6) (0.9) R2 =0.88, F=26.4, T=10 (第4版第54页)

Boβ=OLS法矩阵具体运算过程,例3.1B=(X'X)-X'YB2n956585384816076317068611111111111117873A87675675946374638498556537060707860788491821001205663841209100XJ3x103x109198482786100108388120510x1079478060780-0.092945113.834313.77320-1.04889660390449043804380-8.3553-1.0488960.0911070.006326794449064932-0.09294564932669900.0063260.0006930.1801ProbVariableCoefficientStdErrort-Statisticc0.0049113.834328.165574.041612X1-8.3553422.290749-3.6474280.0082X20.1800720.1997270.9015890.3972
OLS法矩阵具体运算过程,例3.1

3.3 最小二乘 (OLS)估计量的特性1.β的分布(第4版第58页)E(β)= E[(X'X)"X'Y I = E[(X'X)"X'(Xβ+ u)]= β+ (X'X)"X'E(u)= βVar(β)= E[(β-β)(β-β)")= E[(X'X)"X'uu'X(X'X)"I=E[(X'X)"x'α"IX(X'X)"l = α (X'X)"因为u~N(0, 1) ,Y~N(Xβ, ),β=(X'X)X'Yβ是Y的线性函数,所以β~N(β, α? (X'X)")
3.3 最小二乘(OLS)估计量的特性 (第4版第58页)