正在加载图片...
26偏回归估计 Partial Regression 26偏回归估计 Partial regression 由分部回归内容 X'Y=X2X1B1+X'2X2B2 x2Y=X2X1(X1X1)-x1Y-(X1X1)-1x1X2B2)+X2X2B2 x2X1(X1X1)-X1Y-X'2X1(X'1X1)-1x1X2B2+X2X2B2 推导 x2(I-X1(X1X1)-1x1)Y=X2(I-X1(X1X1)-1x1)x 有 (X2(I-X1(X'1X1)-1x1)X2)-1x2(I-X1(X1X1)-1x1Y=B2 (I-X1(X1X1)-X1)=M 成立 B2=(X2MX2)-1(X2MY) 因为M是等幂矩阵 B2=(X2M'MX2)(X2M'MY) =(X2X2)-(X2Y*) 其中 =MY=(I-X1(X'1X1)-x1)Y =Y-X1(X1X1)-x1Y 是Y仅以ⅹ1为解释变量建立的模型的残差 以X2对x1回归: X2=X1(X1X1)1x1X 得出残差 x1(X1X1)-x'1X2) =(I-X1(X1X1)-1x1)X2 (2-17) MX 2.7两阶段最小二乘 定义2.1(排斥性约束)假定结构模型 y1=A+1y+B2x1+1 有一个内生解释变量y和一个外生解释变量z1。假定现在我们有两个被排斥在该式之外的外 变量2和23。它们不出现该式,且与误差项不相关的诸假定称为 exclusionrestriction 外生变量的任何线性组合都是有效的IV。为寻找最好的IV,我们选择与y最高度相关的 线性组合。这正是由y的诱导型方程 Reduced ormequation所给出的 y=00+121+2zx-2+323+ 获得OLS估计值,用它做为v的IV。在复工具条件下,Iv估计量也叫做两阶段最小二 乘估计量 twostageleastsquaresestimator。如果z和在上式中不是联合显著的,做IV估 计是在浪费时间。2.6 偏回归估计 Partial Regression 2.6 偏回归估计 Partial Regression 由分部回归内容 X0 2Y = X0 2X1Bˆ 1 + X0 2X2Bˆ 2 得 X0 2Y = X0 2X1((X0 1X1) −1X0 1Y − (X0 1X1) −1X0 1X2Bˆ 2) + X0 2X2Bˆ 2 = X0 2X1(X0 1X1) −1X0 1Y − X0 2X1(X0 1X1) −1X0 1X2Bˆ 2 + X0 2X2Bˆ 2 推导 X0 2(I − X1(X0 1X1) −1X0 1)Y = X0 2(I − X1(X0 1X1) −1X0 1)X2Bˆ 2 有 (X0 2(I − X1(X0 1X1) −1X0 1)X2) −1X0 2(I − X1(X0 1X1) −1X0 1)Y = Bˆ 2 令 (I − X1(X0 1X1) −1X0 1) = M 成立 Bˆ 2 = (X0 2MX2) −1 (X0 2MY ) 因为 M 是等幂矩阵 Bˆ 2 = (X0 2M0MX2) −1 (X0 2M0MY ) = (X∗ 2X∗ 2 ) −1 (X∗ 2Y ∗ ) 其中 Y ∗ = MY = (I − X1(X0 1X1) −1X0 1)Y = Y − X1(X0 1X1) −1X0 1Y 是 Y 仅以 X1 为解释变量建立的模型的残差。 以 X2 对 X1 回归: Xˆ 2 = X1((X0 1X1) −1X0 1X2) 得出残差 X2 − Xˆ 2 = X2 − X1((X0 1X1) −1X0 1X2) = (I − X1(X0 1X1) −1X0 1)X2 = MX2 = X∗ 2 (2-17) 2.7 两阶段最小二乘 定义 2.1 (排斥性约束) 假定结构模型 y1 = β0 + β1y2 + β2z1 + u1 有一个内生解释变量 y2 和一个外生解释变量 z1。假定现在我们有两个被排斥在该式之外的外 生变量 z2 和 z3。它们不出现该式,且与误差项不相关的诸假定称为 exclusionrestriction。 外生变量的任何线性组合都是有效的 IV 。为寻找最好的 IV ,我们选择与 y2 最高度相关的 线性组合。这正是由 y2 的诱导型方程reducedformequation 所给出的: y2 = φ0 + φ1z1 + φ2z − 2 + φ3z3 + v2 获得 OLS 估计值 yˆ2,用它做为 y2 的 IV 。在复工具条件下,IV 估计量也叫做两阶段最小二 乘估计量twostageleastsquaresestimator。如果 z2 和 z3 在上式中不是联合显著的,做 IV 估 计是在浪费时间。 - 12 -
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有