正在加载图片...
(2)从一段观测序列{Yk,k≤m}出发,估计模型参数组λ=({,A,B),称为学习问 题.就是参数估计问题. (3)对于一个特定的观测链{2k≤m,已知它可能是由已经学习好的若干模型之 所得的观测,要决定此观测究竟是得自其中哪一个模型.这称为识别问题.就是分类问题 在实际问题中,这3个问题有时并不完全能分开.有时也并不需要解全3个问题.例如 在语音识别或手写体汉字或数字的脱机识别中,我们只需要作(2)与(3),这相当于将一个”标 准的”语音音素或一个”标准的”手写体汉字“学习成”一个隐 Markov模型,即把它与一个 或几个特定的隐 Markov模型绠更确切地说,是特定的一组参数)相对应起来,以便把该模型作 为这个音素或手写字的代表模板,这是学习相位;而在进一步用这些模板中的最合适者,作为 对于一个需要识别的音素或手写字的分类归属,这是运转相位.至于归入那个模板最合适,就 要用合理的距离,或准距离(常用的是相对熵),在此意义下优化 [注1]Xn也可以推广为:取值于平面有限格点的 Markov场,而与它的关系仍如上述 这就定义了一个隐 Markov场 [注2]一般地,Yn还可以是连续型随机变量.如果记在Xn=x的条件下,Yn的条件分布 密度为f,则λ=(μn,A,fx)就也称为一个(连续的)隐 Markov模型.这时∫常是分布类型 已知而带有未知参数的密度.状态是连续的隐 Markov模型至今还未见有人使用 3解码问题-已知模型λ与观测Y=y时状态X的估计 3.1出现当前的观测的概率P(Y=y|)的计算 我们仍旧沿用记号 X=(X1…,Xx),Y=(H1,…,Yx),y=(y1…,yx),x=(1,…,x) yn∈{v1;…vM} I<i<l1≤n≤N,初始概率向量μ=(μ1…,μ). 由(10.2),利用条件概率的性质容易算出 P(Y=y|X=(i1,…,x)λ)=b P(Y=y,X=x|1)=H1bam…b4、by P=y1元)=∑H1b1an…a,、b 对于1≤n≤N及观测样值Y=y,记(因为观测样值y是固定的,所以下面我们将 在足标中把它略去) a (D=P(Y yn,Xn=iλ)(依赖y) (10.7) 则在模型λ给定下,关于观测资料(y1;…,yn)的长度n(n<N),我们有递推公式(称为向前 递推公式或向前算法) an()=∑an()xbn (10.8) 由此得到 (1)基于an()的向前递推公式计算P(Y=y|)的步骤: 算初值a1()=Hbn, 272272 (2) 从一段观测序列{Y , k m} k £ 出发, 估计模型参数组 l = (m, A,B) ,称为学习问 题. 就是参数估计问题. (3) 对于一个特定的观测链{Y , k m} k £ , 已知它可能是由已经学习好的若干模型之一 所得的观测, 要决定此观测究竟是得自其中哪一个模型.这称为识别问题. 就是分类问题. 在实际问题中,这 3 个问题有时并不完全能分开.有时也并不需要解全 3 个问题. 例如, 在语音识别或手写体汉字或数字的脱机识别中,我们只需要作(2)与(3),这相当于将一个 ”标 准的” 语音音素或一个 ”标准的” 手写体汉字 “学习成”一个隐 Markov 模型, 即把它与一个 或几个特定的隐 Markov 模型(更确切地说,是特定的一组参数)相对应起来,以便把该模型作 为这个音素或手写字的代表模板, 这是学习相位; 而在进一步用这些模板中的最合适者, 作为 对于一个需要识别的音素或手写字的分类归属, 这是运转相位. 至于归入那个模板最合适, 就 要用合理的距离, 或准距离(常用的是相对熵), 在此意义下优化. [注 1] Xn 也可以推广为: 取值于平面有限格点的 Markov 场, 而Yn 与它的关系仍如上述, 这就定义了一个隐 Markov 场 . [注 2] 一般地, Yn 还可以是连续型随机变量. 如果记在 X x n = 的条件下, Yn 的条件分布 密度为 f , 则 ( , , ) x l = m A f 就也称为一个(连续的)隐 Markov 模型. 这时 f 常是分布类型 已知而带有未知参数的密度.状态是连续的隐 Markov 模型至今还未见有人使用. 3 解码问题 -- 已知模型 l 与观测Y = y 时状态 X 的估计 3.1 出现当前的观测的概率P(Y = y | l) 的计算 我们仍旧沿用记号 ( , , ) X = X1 L X N , ( , , ) Y = Y1 L YN , ( , , ) 1 N y = y L y , ( , , ) 1 N x = i L i , y n Î{n 1 ,Ln M },1 £ i n £ L,1 £ n £ N , 初始概率向量 ( , , ) m = m1 L mN . 由(10. 2),利用条件概率的性质容易算出 N i y iN yN P Y y X i L i b Lb 1 1 ( | ( , , ), ) = = 1 l = , i i y i i yN yN iN iN iN yN P Y y X x b a b a b 1 1 1 1 2 1 1 ( , | ) - - = = l = m L , N N N N N i i y i i i i i y i i P Y y b a a b 1 1 1 1 2 1 1 , , ( | ) å - = = L L l m . (10. 6) 对于 1 £ n £ N 及观测样值 Y = y , 记(因为观测样值 y 是固定的, 所以下面我们将 在足标中把它略去) ( ) ( , , , | ) an i = P Y1 = y1 L Yn = yn X n = i l (依赖 y ), (10. 7) 则在模型l 给定下, 关于观测资料( , , ) 1 n y L y 的长度 n (n < N) , 我们有递推公式(称为向前 递推公式或向前算法) 1 ( ) ( ) 1 å + + = n iy j n n ji a i a j a b . (10. 8) 由此得到 (1) 基于 (i) an 的向前递推公式计算 P(Y = y | l) 的步骤: 计算初值 1 ( ) 1 i iy a i = m b
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有