正在加载图片...
上述GMM模型是由K各高斯模型线性组合而成,a,为组合系数。例如下图就是由两 个高斯函数组合而成: p(x)=07N(-10.2)+03N(53) GMM分布函数的训练要比单个高斯模型复杂得多,这里需要训练的参数有a,m和C 而K值是要预先确定的。GMM的训练一般采用EM迭代算法( Expectation Maximization Algorithm),称为期望最大化算法 三、隐含 Markov模型( Hidden markov Model,HMM) 在实际问题中,有时我们遇到的识别对象是连续信号,例如语音信号。下图分别显示了 三个元音的一段采样信号, 这样的连续信号,如果还是用特征矢量来描述,无法反映出信号之间的时间相关性,往 往需要用一个随机过程来描述。对于连续信号,一般是采用分段来处理的,例如以512点为 段,称为一帧信号。在每一帧信号中抽取出特征,构成特征矢量,例如语音信号中可以抽 取 Fourier变换系数,信号通过零点的次数等等作为这一帧的特征。这样一段信号就可以用 个特征矢量的序列来表示,一般称为观察序列: O=0,O23…,O 其中的O称为观察值,是一个特征矢量 如果我们要对这样的模式构造贝叶斯分类器,也要知道每个类别的条件概率P(O9), 然而对于这样的观察序列,显然无法用高斯模型或高斯混合模型来描述,需要有一个新的模 型—隐含 Markov模型来描述。对每一个类别建立一个HMM,有这样一个HMM可以计算 出观察序列O在每个类别的条件概率P(O|g2),再结合类的先验概率P(2),就可以构造 出一个贝叶斯分类器。 下面简单介绍一下HMM的基本知识,在随机过程中,每一时刻的取值只与之前的过程 有关,而与之后的过程无关,这样的过程称为 Markov过程,只与前一时刻的值有关,则称39 上述 GMM 模型是由 K 各高斯模型线性组合而成, j a 为组合系数。例如下图就是由两 个高斯函数组合而成: p x N N ( ) = − + 0.7 10,2 0.3 (5,3) ( ) GMM分布函数的训练要比单个高斯模型复杂得多,这里需要训练的参数有 j a ,m j 和 Cj , 而 K 值是要预先确定的。GMM的训练一般采用EM迭代算法(Expectation Maximization Algorithm),称为期望最大化算法。 三、隐含 Markov 模型 (Hidden Markov Model, HMM) 在实际问题中,有时我们遇到的识别对象是连续信号,例如语音信号。下图分别显示了 三个元音的一段采样信号,’a’, ‘o’, ‘e’。 这样的连续信号,如果还是用特征矢量来描述,无法反映出信号之间的时间相关性,往 往需要用一个随机过程来描述。对于连续信号,一般是采用分段来处理的,例如以 512 点为 一段,称为一帧信号。在每一帧信号中抽取出特征,构成特征矢量,例如语音信号中可以抽 取 Fourier 变换系数,信号通过零点的次数等等作为这一帧的特征。这样一段信号就可以用 一个特征矢量的序列来表示,一般称为观察序列: 1 2 , , , O = O O ON 其中的 Oi 称为观察值,是一个特征矢量。 如果我们要对这样的模式构造贝叶斯分类器,也要知道每个类别的条件概率 P O( i) , 然而对于这样的观察序列,显然无法用高斯模型或高斯混合模型来描述,需要有一个新的模 型—隐含 Markov 模型来描述。对每一个类别建立一个 HMM,有这样一个 HMM 可以计算 出观察序列 O 在每个类别的条件概率 P O( i) ,再结合类的先验概率 P(i) ,就可以构造 出一个贝叶斯分类器。 下面简单介绍一下 HMM 的基本知识,在随机过程中,每一时刻的取值只与之前的过程 有关,而与之后的过程无关,这样的过程称为 Markov 过程,只与前一时刻的值有关,则称
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有