正在加载图片...
2.9最大似然估计方法 其中每个观测的边际密度用条件密度代替。对应的对数似然函数具有和式的形式 (y,)=∑4(y,0) t=1 其中省略了表示整体样本的y的上标 定义表明,梯度向量的每个分量是n个贡献之和,当观测不独立仍然正确;但t关于θ1的 偏导数依赖于y而不再仅仅是y。将这些偏导数写成一个矩阵会带来方便。定义n×k矩阵 G(y,0),其代表性元素为 a(y2,0) 这个矩阵称为梯度贡献矩阵。因为 (y,0) (2-31) 因此,梯度向量的每个分量都是矩阵G(y,0)向量的元素的和。G(v,0)的一个关键性质是,如 果y是由θ 有限信息最大似然法有限信息最大似然法 (LIML, Limitedln formation Macimumlikelihood)是一种以最大似然为准则、通过对 简化式模型进行最大似然估计,以得到结构方程参数估计量的联立方程模型的单方程估计方 法。由 Anderson和 Rubin于1949年提出,早于两阶段最小二乘法。适用于恰好识别和过度 识别结构方程的估计。 在该方法中,以下两个概念是重要的:一是这里的”有限信息”指的是每次估计只考虑一个 结构方程的信息,而没有考虑模型系统中其它结构方程的信息;二是这里的”最大似然法”是针 对结构方程中包含的内生变量的简化式模型的,即应用最大似然法求得的是简化式参数估计 量,而不是结构式参数估计量。 BY+TX≡N 每一个方程(以第一个方程为例)可以改写为如下的形式: Y1=2Y2+613Y8+…+g1Yg1+m1X1+m12X2+……+m1k1Xk1+N1 用矩阵形式表达是 Y1=(Y0,X0) 其中 y21331 Yo=[YY3…Y0]= y22y32 yq, 2 y2n y3n ygu 12x22k122.9 最大似然估计方法 其中每个观测的边际密度用条件密度代替。对应的对数似然函数具有和式的形式: ι(y n , θ) = Xn t=1 ιt(y t , θ) (2-29) 其中省略了表示整体样本的 y 的上标。 定义表明,梯度向量的每个分量是 n 个贡献之和,当观测不独立仍然正确;但 ιt 关于 θi 的 偏导数依赖于 y t 而不再仅仅是 yt。将这些偏导数写成一个矩阵会带来方便。定义 n × k 矩阵 G(y, θ),其代表性元素为: Gti(y t , θ) ≡ ∂ιt(y t , θ) ∂θi (2-30) 这个矩阵称为梯度贡献矩阵。因为: gi(y, θ) = Xn t=1 Gti(y t , θ) (2-31) 因此,梯度向量的每个分量都是矩阵 G(y, θ) 向量的元素的和。G(y, θ) 的一个关键性质是,如 果 y 是由 θ 有 限 信 息 最 大 似 然 法 有 限 信 息 最 大 似 然 法 (LIML, LimitedInformationM aximumLikelihood) 是 一 种 以 最 大 似 然 为 准 则 、 通 过 对 简化式模型进行最大似然估计,以得到结构方程参数估计量的联立方程模型的单方程估计方 法。由 Anderson 和 Rubin 于 1949 年提出,早于两阶段最小二乘法。适用于恰好识别和过度 识别结构方程的估计。 在该方法中,以下两个概念是重要的:一是这里的”有限信息”指的是每次估计只考虑一个 结构方程的信息,而没有考虑模型系统中其它结构方程的信息;二是这里的”最大似然法”是针 对结构方程中包含的内生变量的简化式模型的,即应用最大似然法求得的是简化式参数估计 量,而不是结构式参数估计量。 BY + ΓX = N 每一个方程(以第一个方程为例)可以改写为如下的形式: Y1 = β12Y2 + β13Y3 + · · · + β1g1 Yg1 + γ11X1 + γ12X2 + · · · + γ1k1Xk1 + N1 用矩阵形式表达是: Y1 = (Y 0, X0) µ B0 Γ0 ¶ + N1 其中 Y 0 = £ Y2 Y3 · · · Yg1 ¤ =      y21 y31 · · · yg11 y22 y32 yg12 . . . . . . . . . y2n y3n yg1n      X0 = h X1 X2 · · · X k1 i =      x11 x21 · · · xk11 x12 x22 xk12 . . . . . . . . . x1n x2n xk1n      B0 =      β12 β13 . . . β1g1      Γ0 =      γ11 γ12 . . . γ1k1      - 16 -
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有