正在加载图片...
72(X)=L2P(Xg)P(1)+L2P(X2)P(92) 当(X)≤y2(X)时,判别X为94类:;当y1(X)>%2(X)时,判别X为2类。以第 种情况进行推导: L1P(Xg21)P(92)+L2P(X92)P(92)≤L12P(X1)P(92)+L2P(X2)P(O2) 即:(L21-L2)P(Xg2)P(92)s(L2-L1)P(Xg2)P(21) P(X2)、P(2)、(L2-L2 P(X92)P(9)(L2-L4n) 定义似然比:12(x)= P(X92) P(2) P(X2) ,定义阈值:21 P(2)(L12-L1) 这样就可以得到最小平均风险准则下的贝叶斯判决条件: 若l1(X)≥21,则X∈9 若h1(X)<B21,则X∈9 例4 44贝叶斯分类器的学习 贝叶斯分类器的工作原理非常简单,完全是根据待识模式X对各个类别的后验概率 P(92|X)来分类的,判别为后验概率最大的类别。后验概率可以根据贝叶斯公式转化为先 验概率P(92)和类条件概率P(X)。下面我们来研究贝叶斯分类器的学习问题,也就是 说如何通过训练样本集来得到P(92)和P(X92)的问题。 对于一个具体问题来说,P(92)和P(Xg2)我们并不知道,而是已知各个类别的训练 样本集合:X={x,x…,x},i=1,2,…,M。X表示第i个类别的第j个训练 样本,第i类共有N个训练样本。 一般来说P(2)比较容易得到,因为类别数是有限的,可以通过统计多个样本得到各 个类别出现的几率,用它来近似概率,比如可以根据大量病例统计出在普通人中癌症的患病 率,也可以根据先验知识来确定,比如掷两枚样币同时出现正面的概率。 然而类条件概率P(X92)的获得却往往是一个比较困难的事情。如果X是离散型的时 候,问题相对来说还比较简单一些,如果样本量足够多的话,可以分别统计出各个类别中出37  2 12 1 1 22 2 2 (X X X ) =   +   L P P L P P ( ) ( ) ( ) ( ) 当   1 2 (X X )  ( ) 时,判别 X 为 1 类;当   1 2 (X X )  ( ) 时,判别 X 为 2 类。以第 一种情况进行推导: L P P L P P L P P L P P 11 1 1 21 2 2 12 1 1 22 2 2 (X X X X   +      +   ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 即: (L L P P L L P P 21 22 2 2 12 11 1 1 −    −   ) (X X ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 1 2 21 22 2 1 12 11 P P L L P P L L   −     − X X 定义似然比: ( ) ( ) ( ) 1 12 2 P l P  =  X X X ,定义阈值: ( ) ( ) ( ) ( ) 2 21 22 21 1 12 11 P L L P L L   − =   − 。 这样就可以得到最小平均风险准则下的贝叶斯判决条件: 若 l 12 21 (X)  ,则 X1 ; 若 l 12 21 (X)  ,则 X2 。 例 4.2 4.4 贝叶斯分类器的学习 贝叶斯分类器的工作原理非常简单,完全是根据待识模式 X 对各个类别的后验概率 P(i X) 来分类的,判别为后验概率最大的类别。后验概率可以根据贝叶斯公式转化为先 验概率 P(i) 和类条件概率 P(X i) 。下面我们来研究贝叶斯分类器的学习问题,也就是 说如何通过训练样本集来得到 P(i) 和 P(X i) 的问题。 对于一个具体问题来说, P(i) 和 P(X i) 我们并不知道,而是已知各个类别的训练 样本集合: ( ) ( ) ( ) ( )  1 2 , , , i i i i i X X X X = N ,i M =1, 2, , 。 (i) X j 表示第 i 个类别的第 j 个训练 样本,第 i 类共有 Ni 个训练样本。 一般来说 P(i) 比较容易得到,因为类别数是有限的,可以通过统计多个样本得到各 个类别出现的几率,用它来近似概率,比如可以根据大量病例统计出在普通人中癌症的患病 率,也可以根据先验知识来确定,比如掷两枚样币同时出现正面的概率。 然而类条件概率 P(X i) 的获得却往往是一个比较困难的事情。如果 X 是离散型的时 候,问题相对来说还比较简单一些,如果样本量足够多的话,可以分别统计出各个类别中出
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有