形天分初园归 折 是研究事物的相互关系,测定它们联系的紧密 程度,揭示其变化的具体形式和规律性的统计方法, 是构造各种经济模型、进行结构分析、政策评价 预测和控制的重要工具。 相关分析( Correlation Analysis 主要内容 回归分析( Regression Analysis
第 11章 相关分析和回归分 析 相关和回归分析 是研究事物的相互关系,测定它们联系的紧密 程度,揭示其变化的具体形式和规律性的统计方法, 是构造各种经济模型、进行结构分析、政策评价、 预测和控制的重要工具。 主要内容 相关分析 (Correlation Analysis) 回归分析 (Regression Analysis)
相关分 相关的概念变量之间关系 相关关系 因果关系 随机性依 互为因果关系 存关系 共变关系 函数关系 确定性依存关系
相关分析 • 相关的概念 变量之间关系 函数关系 相关关系 因果关系 互为因果关系 共变关系 确定性依存关系 随机性依 存关系
相关的种类 正相关 元相关 线性相关 负相关 多元相关 曲线相关 正相关X负相关 曲线相关 不相关
一元相关 负 相 关 多元相关 正 相 关 线性相关 曲线相关 y 正 相 关 y 负 相 关 y 曲线相关 x y 不 相 关 • 相关的种类 x x x
简单线性相关 相关分析的步骤 搜集资料一整理资料绘制相关图一相关关系的测定 相关系数测定两变量是否线性相关 定义式:D 未分组:r ∑(x-x)y-y) xy nxyf-Cxf)∑y) 已分组:r Vn2xf,(.).f,-(yS)
• 简单线性相关 相关分析的步骤 相关系数 测定两变量是否线性相关 x y xy 定义式: = 搜集资料 整理资料 绘制相关图 相关关系的测定 n x y x x y y r − − = ( )( ) 未分组: 已分组: − − − = 2 2 2 2 n x ( x) n y ( y) n x y x y r − − − = [ ( ) ] [ ( ) ] ( )( ) 2 2 2 2 x x y y xy x y n x f x f n y f y f n x y f x f y f r
协方差与相关系数 皮尔生的相关系数是对协方差标准化处理的结果,是对 协方差的改进。 r0不存在线性关系;p=1完全线性相关 0-k0正相关;r<0负相关 00.3微弱:0.3-0.5低度;0.5~0.8显著;0.8~1高度) 相关系数的显著性检验 直接查相关系数检验表 0:p=0,H1:p≠0 检验统计量t=r
协方差与相关系数 皮尔生的相关系数是对协方差标准化处理的结果,是对 协方差的改进。 相关系数的显著性检验 |r|=0 不存在线性关系; |r|=1 完全线性相关 00 正相关;r<0 负相关 H0 : p=0, H1 : p≠0 直接查相关系数检验表 检验统计量 2 1 2 | | r n t r − − =
元线性回归模型 基本 1回归分析:研究变量间依存关系 2回归与相关关系 相关分析 回归分析 关*研究变量间的不确定性关系,存在相关才能回归 *相关系数与回归模型中的参数相互换算 区*变量地位对等 分为因变量与自变量 别都是随机变量 因变量为随机变量 *侧重相关的密切程度和变*侧重建立模型预测或估计 化方向 因变量 3回归模型的种类
一元线性回归模型 • 基本概念 1 回归分析:研究变量间依存关系 2 回归与相关关系 3 回归模型的种类 相关分析 回归分析 联 系 *研究变量间的不确定性关系,存在相关才能回归 *相关系数与回归模型中的参数相互换算 区 别 *变量地位对等 *都是随机变量 *侧重相关的密切程度和变 化方向 *分为因变量与自变量 *因变量为随机变量 *侧重建立模型预测或估计 因变量
一元线性回归模型( Regressi0 n Analysis) 1总体回归模型y=a+Ax+, E(y)=a+(总体回归直线 =y-()随机快差项 B(E1)=0 o2(=)( (Gauss-Markov:条件 coV(Ei,E) 0(1≠j) 261~N(0,2)3coV,x)=0 2样本回归模型 p=a+bx(样本回归线) (a=a, b=B) 残差
• 一元线性回归模型(Regression Analysis) 1 总体回归模型 2 样本回归模型 y = + x + t E(y) = + x (总体回归直线) x y =Y −E(Y):随机误差项 2 ~ 0 3 cov( , ) 0 (Gauss - Markov 0 (i j) ( ) cov( , ) E( ) 0 1 t t 2 t 2 j t = = = = N x i j i ( , ) 条件) :残差 样本回归线 Y ˆ ) Y - ˆ ( ˆ, b ˆ ( ) = = = t t = + t a e y a bx
参数借计( Least Squares Principle) y-y=D-(a+bx) ∑(y-)2 i=1 令Q=min∑(y-a-bx)2,根据微分学中求极值原理, 分别对a、b求导数并令其为零 00-0 ∑y∑ a b=(a=y-bx) Q=0 ∑(x-x)(y b n 20b ∑(x-x)2
• 参数估计(Least Squares Principle) − − − = − = = − = − = = = − − − = − − − = − + = = = ) ( ) ( )( ) ( n x ( ) xy - x y b ( ) n y a 0 0 Q min ( ) , ( ˆ) ( ) ˆ ( ) 2 2 2 1 2 1 2 1 2 x x x x y y b x n a y bx n x b b Q a Q a b y a bx y y y a bx y y y a bx n i i n i i n i i i i 分别对 、 求导数并令其为零。 令 根据微分学中求极值原理, x y x y x y
合优度检验 ∑(y-y)2=2(y-y)2+2(-y) 总偏差剩余偏差回归偏差 判定系数r2 回归偏差∑(-y) r=±√r 总偏差 猎引标准误 ∑(y-j 2 n
• 拟合优度检验 判定系数r 2 估计标准误 2 2 2 2 , ( ) ( ˆ ) r r y y y y r = − − = = 总偏差 回归偏差 总偏差 剩余偏差 回归偏差 ( ) ( ˆ) ( ˆ ) 2 2 2 y − y = y − y + y − y 2 2 ( ˆ) 2 2 XY − − − = − − = n y a y b xy n y y S
显著性检验 总体随机误差σ2:反映理论模型误差的大小,数学上可以证明,σ的无偏估计S 可由下式给出:S3∑4=02号x=0 n-2 可以证明,在标准假定满足的条件下:E(B1)=BVa(B)=G √∑(X-x)2 H:B=0H:B≠O 回归系数检验 大样本:z (B=0) 小样本:t (B=0) 回归模型整体检验 H0B=0H:B≠0 /、S(-y)2/ (n-2) ∑(y-y)/n-21
• 显著性检验 回归系数检验 回归模型整体检验 = − = = − = = ( 0) ˆ ( 0) 0: 0 H1: 0 b b b t b Z H 小样本: 大样本: 2 2 2 2 0: 1: 1 ( 2) ( ˆ) / 2 ( ˆ ) /1 0 H 0 r r n y y n y y F H − − = − − − = = , ( ) : ( ) Var( ) ˆ ( 0 ) 2 : 2 2 2 2 2 2 − = = = = = − = X X S E e e x o n e S S X Y i i i b t t t t 可以证明,在标准假定满足的条件下 可由下式给出 总体随机误差 :反映理论模型误差的大小,数学上可以证明, 的无偏估计