正在加载图片...
贝叶斯统计方法的基本思想是:将未知参数m作为随机量,在对m进行估计时设置 -个先验分布p(m)。在获取观测资料后,使用贝叶斯公式将先验分布改进为后验分布: p(mld)=p(d m)p(m)/p(d) (1) 其中,pm)、pdm)和p(m/d分别表示未知向量的先验、条件和后验PDF。 m=(m1,m2,,mn表示长度为n的未知随机向量,d=(d1,d2,,dM是包含M个观测数据的 列向量。获取观测后,p(d是一个与m无关的常数。 式(1)是进行贝叶斯推理的基础,也是原文利用MCMC算法估计生态模型中未知参数的 出发点。各项意义如下:pm表示未知随机向量的先验信息,从反问题的角度,先验信息 的引入可以克服反问题的不适定性。条件概率密度p(dlm)又称似然函数L(dm,包含了在 所有观测数据条件下未知参数的似然度信息。换言之,表征了估计参数和实际观测数据的 协调程度。先验信息与观测信息相结合,就得到反映未知随机向量综合信息的后验概率 密度:pmd定义在整个解空间,表示了问题的“完全”解,即可能解集合中任意解出现 的概率。获得后验PDF后,理论上可以获得未知参数的任何特征。但实际应用中除了非常 简单的情况,后验PDF都无明确数学表达式。另外,通常的数值积分方法(例如Mote Cao方法)的计算量将随向量维数的增多而呈指数增长。因此。贝叶斯方法很难直接解决 实际问题。 MCMC方法: 上面的分析表明:利用贝叶斯公式可以获得未知参数的后验PDF,但参数估计问题仍 然无法求解。另一方面,随着后验PDF复杂性的增加,单一的“最可能”解如果存在)几 乎没有意义,而利用后验概率的全部信息来对解进行整体推断更具有合理性。换言之,研 究重点不再是通过最优化获得一个单点解,而是对解空间中最可能区域进行重要性抽样 后,然后由样本集对解进行估计。 MCMC方法就是一种直接模拟后验PDF的方法,可以对定义在高维随机向量空间M上 且无明确数学表达式的概率分布P进行抽样。基本思想是产生大量服从分布P的随机向量 序列(m1,m2,,m,其中,1为抽样数。如果向量序列满足马尔可夫性质:向量m*1的产 生仅依赖于前一个向量m,而与过去时刻i-1,i-2,1的状态向量m-1,m-2,…m1都无关, 则该向量序列称为马尔可夫链。马尔科夫性质意味着抽样算法完全可由转移概率矩阵P描 述,矩阵元素Pg表示算法在当前访问m的条件下接着访问的条件概率。按照所用转移 概率矩阵的不同,McMC方法的主要抽样算法有:Gibbs抽样算法、Metropolis-.Hastings算 法和自适应Metropolis算法。 其中,Metropolis算法的动机是推广接受-拒绝抽样方法。在接受拒绝抽样方法中,我 们有目标密度函数、建议密度函数和一个接受准则(概率函数)。同样地我们假设:是全空 间上的离散概率密度函数,人们需要在上按照密度函数产生样本马尔可夫链 原文采用自适应Metropolis算法,以生物模型中未知参数的后验分布为不变极限分布 来构造Markov链。与传统的Metropolis.Hastings算法相比,自适应Metropolis算法不需 要事先确定参数的推荐分布,而是由后验参数的协方差矩阵来估算参数分布。后验参数的 协方差矩阵在每次迭代后都要自适应地调整:由于参数不再需要分组更新,所以计算量大 大减少。如此,第i步参数的推荐分布就是均值为m,、协方差矩阵为C的多元正态分布。 协方差的计算公式如(2)式所示: Co,i≤io CisaCov(mo)+saelaio (2) 在初始io次迭代中,C取固定值Co,之后进行自适应更新。m,是未知参数向量m中某 个分量在第i次迭代的估计值。ε是一个非常小的数,作用是确保C不成为奇异矩阵: C0v(mo,m1,……m二1)是m,m1,m,一1的协方差矩阵:Sa是比例因子,依赖于未知随机贝叶斯统计方法的基本思想是:将未知参数 m 作为随机量,在对 m 进行估计时设置 —个先验分布 p(m)。在获取观测资料后,使用贝叶斯公式将先验分布改进为后验分布: p(m|d) = p(d|m)p(m)/p(d) (1) 其中,p(m) 、p(d|m) 和 p(m|d)分别表示未知向量的先验、条件和后验 PDF。 mT=(m1,,m2,……,mn)表示长度为 n 的未知随机向量,d T=(d1,,d2,……,dM)是包含 M 个观测数据的 列向量。获取观测后,p(d)是—个与 m 无关的常数。 式(1)是进行贝叶斯推理的基础,也是原文利用 MCMC 算法估计生态模型中未知参数的 出发点。各项意义如下:p(m)表示未知随机向量的先验信息,从反问题的角度,先验信息 的引入可以克服反问题的不适定性。条件概率密度 p(d|m)又称似然函数 L(d|m),包含了在 所有观测数据条件下未知参数的似然度信息。换言之,表征了估计参数和实际观测数据的 协调程度。先验信息与观测信息相结合,就得到反映未知随机向量 m 综合信息的后验概率 密度;p(m|d)定义在整个解空间,表示了问题的“完全”解,即可能解集合中任意解出现 的概率。获得后验 PDF 后,理论上可以获得未知参数的任何特征。但实际应用中除了非常 简单的情况,后验 PDF 都无明确数学表达式。另外,通常的数值积分方法(例如 Monte Carlo 方法)的计算量将随向量维数的增多而呈指数增长。因此。贝叶斯方法很难直接解决 实际问题。 MCMC 方法: 上面的分析表明:利用贝叶斯公式可以获得未知参数的后验 PDF,但参数估计问题仍 然无法求解。另一方面,随着后验 PDF 复杂性的增加,单一的“最可能”解(如果存在)几 乎没有意义,而利用后验概率的全部信息来对解进行整体推断更具有合理性。换言之,研 究重点不再是通过最优化获得一个单点解,而是对解空间中最可能区域进行重要性抽样 后,然后由样本集对解进行估计。 MCMC 方法就是一种直接模拟后验 PDF 的方法,可以对定义在高维随机向量空间 M 上 且无明确数学表达式的概率分布 P 进行抽样。基本思想是产生大量服从分布 P 的随机向量 序列(m1,,m2,……,ml),其中,l 为抽样数。如果向量序列满足马尔可夫性质:向量 mi+1的产 生仅依赖于前一个向量 mi,而与过去时刻 i-1,i-2⋯,l 的状态向量 mi-1,mi-2,……m1都无关, 则该向量序列称为马尔可夫链。马尔科夫性质意味着抽样算法完全可由转移概率矩阵 P 描 述,矩阵元素 Pij 表示算法在当前访问 mj的条件下接着访问 mi的条件概率。按照所用转移 概率矩阵的不同,MCMC 方法的主要抽样算法有:Gibbs 抽样算法、Metropolis-Hastings 算 法和自适应 Metropolis 算法。 其中,Metropolis 算法的动机是推广接受-拒绝抽样方法。在接受-拒绝抽样方法中,我 们有目标密度函数、建议密度函数和一个接受准则(概率函数)。同样地我们假设:是全空 间上的离散概率密度函数,人们需要在上按照密度函数产生样本马尔可夫链 原文采用自适应 Metropolis 算法,以生物模型中未知参数的后验分布为不变极限分布 来构造 Markov 链。与传统的 Metropolis.Hastings 算法相比,自适应 Metropolis 算法不需 要事先确定参数的推荐分布,而是由后验参数的协方差矩阵来估算参数分布。后验参数的 协方差矩阵在每次迭代后都要自适应地调整;由于参数不再需要分组更新,所以计算量大 大减少。如此,第 i 步参数的推荐分布就是均值为𝑚̂𝑖,、协方差矩阵为 Ci的多元正态分布。 协方差的计算公式如(2)式所示: 𝐶𝑖 = { 𝐶0, 𝑖 ≤ 𝑖0 𝑠𝑑𝐶𝑜𝑣(𝑚̂0, 𝑚̂1, … … 𝑚̂𝑖−1 ) + 𝑠𝑑𝜀𝐼𝑑, 𝑖 ≥ 𝑖0 (2) 在初始𝑖0次迭代中,Ci取固定值 C0,之后进行自适应更新。𝑚𝑖 ̂,是未知参数向量 m 中某 个分量在第 i 次迭代的估计值。𝜀是一个非常小的数,作用是确保 Ci不成为奇异矩阵; 𝐶𝑜𝑣(𝑚̂0, 𝑚̂1, … … 𝑚̂𝑖−1 )是𝑚̂0, 𝑚̂1, … … 𝑚̂𝑖−1的协方差矩阵;𝑠𝑑是比例因子,依赖于未知随机
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有