正在加载图片...
第6期 苗夺谦,等:从人类智能到机器实现模型一粒计算理论与方法 ·751 有子集的基本概率的和。 UI C-Cis 定义19[】似然函数:命题A的似然函数P1: CE(A)=- 而 CTul 2→[0,1]为:PI(A)=1-Bl(~A)= 王俊红等[]给出了不完备信息系统中知识粒 ∑m(B),HACU,表示对于不否定A的信任 度的定义: 度,是所有与A相交的子集的基本概率之和。 GK(A)= 定义20证据的信任函数:对任何命题ACU mΣ1s,u,)川 的信任函数为 为了对不完备信息系统的知识粒度有更加直观 Bel(A)=∑m(B)=∑m({a}) 的理解,钱宇华和梁吉业[6]在不完备信息系统中提 出了组合粒度的概念: Bel(U)=∑m(B)=∑m({a)+m(U)=l 1 1Cis(O 定义21证据的似然函数:对任何命题ACU CG(A)=Cu 的似然函数为 为了更好地理解不确定性度量的本质,梁吉业 Pl(A)=1 -Bel(~A)=m(U)+Bel(A) 等[6]建立了信息熵、粗糙熵、组合嫡、知识粒度和组 根据以上定义,可以看出命题的信任函数和似然函 合粒度之间的如下关系: 数之间满足下列关系: E(A)+GK(A)=1 PI(A)≥Bel(A) H(A)+E,(A)=log2 I UI Pl(A)-Bel(A)=m(U) CE(A)+CG(A)=1 除了以A[Bl(A),PI(A)]作为A的不确定性度量 4.1.2单粒度下不确定性推理[63-川 外,还可用类概率函数来度量。 1)基于概率论的不确定性推理 定义22类概率函数:设U为有限域,对任何 贝叶斯决策论是不确定性推理的重要工具。在 命题ACU,A的类概率函数为 概率论下,对象信息的分布被认为服从一个概率分 )Bel(A)+(PI(A)-Bel( 布。最小化错误率和最小化决策代价是两种典型的 推理目标。为了便于表达,我们假定x、x代表论域 定义23-6)设K=(U,R)是一个知识库,R 中对象x及其所属的粒结构x,对于类别集合D,我 ∈R为论域U上的等价关系,称为知识。知识R∈ R的粒度,记为GD(R),定义为 们有如下关于x的模式分类结果h(x)的结论。 CO( ①当不确定性推理的目标是最小化错误率时: h(x)=argmaxP(d;x) 定义24[6-6]设K=(U,R)是一个知识库,知 ②当不确定性推理的目标是最小化决策代价时: 识R∈R的分辨度,记为Dis(R),定义为 h()argmin P(d) Dis(R)=1-GD(R) 梁吉业和史忠植[6]给出了不完备信息系统中 式中:P(d:|x)代表条件概率,入,代表将一个真实 的信息嫡的形式,其形式如下: 标记为d的对象识别为d,所产生的代价。条件概 I S(u;)I 率可以根据贝叶斯定理计算得到,即条件概率等于 H(A)=- 1可 先验乘以似然除以证据: 为了区别于Shannon信息熵,梁吉业和史忠 植信息熵的另一种形式,即 P(d)=P(d)P(d) P(x) 1 I S(u:)I 宫1- 决策粗糙集模型是代价敏感下以最小化代价为 E(A)= 目标的三支求解模型。根据属性条件独立性假设的 后来,钱宇华和梁吉业[6]将粗糙熵引入到不完 强弱,可构造朴素贝叶斯分类器、半朴素贝叶斯分类 备信息系统中,给出了不完备信息系统的粗糙嫡: 器。此外,考虑到对象对粒结构隶属的不确定性,概 1 率论可与其他策略(如集成学习)组合构成新的推 E,(A)=- 1 台T可lo8:1s(u)T 理机制。 钱字华和梁吉业[6]在不完备信息系统中给出 2)基于证据理论的不确定性推理 了组合熵的定义: 证据理论是一种广义的概率论,天然地具有不有子集的基本概率的和。 定义 19 [ 66 ] 似然函数:命题 A 的似然函数 Pl: 2 U → [0,1] 为: Pl(A) = 1 - Bel( ~ A) = B∩∑A≠∅ m(B), ∀A ⊆ U, 表示对于不否定 A 的信任 度,是所有与 A 相交的子集的基本概率之和。 定义 20 证据的信任函数:对任何命题 A ⊆ U 的信任函数为 Bel(A) = ∑B⊆A m(B) = ∑a∈A m({a}) Bel(U) = ∑B⊆U m(B) = ∑a∈U m({a}) + m(U) = 1 定义 21 证据的似然函数:对任何命题 A ⊆ U 的似然函数为 Pl(A) = 1 - Bel( ~ A) = m(U) + Bel(A) 根据以上定义,可以看出命题的信任函数和似然函 数之间满足下列关系: Pl(A) ≥ Bel(A) Pl(A) - Bel(A) = m(U) 除了以 A[Bel(A),Pl(A)] 作为 A 的不确定性度量 外,还可用类概率函数来度量。 定义 22 类概率函数:设 U 为有限域,对任何 命题 A ⊆ U, A 的类概率函数为 f 1(A) = Bel(A) + A U (Pl(A) - Bel(A)) 定义 23 [65-66] 设 K = (U,R) 是一个知识库, R ∈ ℝ 为论域 U 上的等价关系,称为知识。 知识 R ∈ ℝ 的粒度,记为 GD(R), 定义为 GD(R) = R | U × U | = R | U | 2 定义 24 [65-66] 设 K = (U,R) 是一个知识库,知 识 R ∈ ℝ 的分辨度,记为 Dis(R), 定义为 Dis(R) = 1 - GD(R) 梁吉业和史忠植[62] 给出了不完备信息系统中 的信息熵的形式,其形式如下: H(A) = - ∑ U i = 1 1 U log2 | SA(ui) | U 为了区别于 Shannon 信息熵,梁吉业和史忠 植 [58]信息熵的另一种形式,即 E(A) = ∑ U i = 1 1 U (1 - | SA(ui) | U ) 后来,钱宇华和梁吉业[68]将粗糙熵引入到不完 备信息系统中,给出了不完备信息系统的粗糙熵: Er(A) = - ∑ U i = 1 1 U log2( 1 | SA(ui) | ) 钱宇华和梁吉业[67] 在不完备信息系统中给出 了组合熵的定义: CE(A) = 1 U ∑ U i = 1 ( C 2 U - C 2 | SA (ui )| C 2 U ) 王俊红等[69] 给出了不完备信息系统中知识粒 度的定义: GK(A) = 1 | U | 2∑ U i = 1 | SA(ui) | 为了对不完备信息系统的知识粒度有更加直观 的理解,钱宇华和梁吉业[68]在不完备信息系统中提 出了组合粒度的概念: CG(A) = 1 U ∑ U i = 1 C 2 | SA (ui )| C 2 U 为了更好地理解不确定性度量的本质,梁吉业 等[68]建立了信息熵、粗糙熵、组合熵、知识粒度和组 合粒度之间的如下关系: E(A) + GK(A) = 1 H(A) + Er(A) = log2 | U | CE(A) + CG(A) = 1 4.1.2 单粒度下不确定性推理[63-71] 1) 基于概率论的不确定性推理 贝叶斯决策论是不确定性推理的重要工具。 在 概率论下,对象信息的分布被认为服从一个概率分 布。 最小化错误率和最小化决策代价是两种典型的 推理目标。 为了便于表达,我们假定 x、x ~ 代表论域 中对象 x 及其所属的粒结构 x ~ , 对于类别集合 D ,我 们有如下关于 x ~ 的模式分类结果 h x ~ ( ) 的结论。 ①当不确定性推理的目标是最小化错误率时: h x ~ ( ) = argmax di∈D P di x ~ ( ) ②当不确定性推理的目标是最小化决策代价时: h x ~ ( ) = argmin di∈D ∑ j λijP dj x ~ ( ) 式中: P di x ~ ( ) 代表条件概率, λij 代表将一个真实 标记为 dj 的对象识别为 di 所产生的代价。 条件概 率可以根据贝叶斯定理计算得到,即条件概率等于 先验乘以似然除以证据: P di x ~ ( ) = P di ( ) P x ~ di ( ) P x ~ ( ) 决策粗糙集模型是代价敏感下以最小化代价为 目标的三支求解模型。 根据属性条件独立性假设的 强弱,可构造朴素贝叶斯分类器、半朴素贝叶斯分类 器。 此外,考虑到对象对粒结构隶属的不确定性,概 率论可与其他策略(如集成学习)组合构成新的推 理机制。 2) 基于证据理论的不确定性推理 证据理论是一种广义的概率论,天然地具有不 第 6 期 苗夺谦,等: 从人类智能到机器实现模型———粒计算理论与方法 ·751·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有