正在加载图片...
第17卷 智能系统学报 ·472· 本体的框架来支持来自智能交通系统的数据的集 (样本集)和测试集。通过本体样本的训练,按照 成和可视化。Al-Sayed等设计了一种称为Cloud- 一定的本体学习算法得到本体函数,再将本体函 FNF的综合云本体,根据该本体结构,云服务被 数应用于同类本体数据(测试集)。我们希望从 分类为若干个类别。Tebes等给出分析和记录 样本学习得到的本体函数同样适用于同一个本体 软件测试本体的系统审查结果的方法。Pradeep 的其他本体数据,即算法具有很好的扩展性能。 等)在基于本体的平衡二叉树中搜索预定的用户 这必须要求本体学习算法具有稳定性,即样本的 查询,最后使用Okapi BM25对相关结果进行排序 轻微改变对学习得到的结果影响很小。从理论上 并交付给用户。Hema等提出了一种新的基于 说,稳定性是一种学习的平滑性,即最优函数的 信任的隐私保护框架,通过本体服务排序TBP℉- 性能随着样本容量n的增加而缓缓提高,其特征 OSR进行用户身份验证。Messaoudi等可给出了 曲线是平滑过渡的,不会在任何一点产生剧烈的 关于疾病治疗医学本体研究的综述。Mantovani 震荡。而强烈的抖动意味着算法对于特定的本体 等]提出了一种本体驱动的地质图知识表示。 样本点有着特定的反映,进而说明本体学习算法 本体形式语言允许通过语义类别和属性对地球科 本身不适合实验对象数据,即这样的算法得到的 学家的解释进行机器可读编码,并支持知识共享 最优本体函数不可能对训练集以外的数据产生很 和互操作性。Abeysinghe等I通过在基因本体 好的效果。 (gene ontology,GO)本体概念的基于序列的表示 另一方面.理论研究最关心的是算法的收敛阶 之上,利用新的术语代数以及3个条件规则(单调 和误差界。本文的动机是在稳定性和误差界之间 性、交集和子概念规则)开发了基于包含的子项 找到必然的联系。因此如果一个本体学习算法有 推理框架。Kossmann等1o提出了潜艇探测着陆 很好的稳定性,那么它的学习误差就会控制在某 器的本体驱动框架。 个范围内。也就是说,本文的理论结果暗示了稳 随着越来越多的本体被定义和应用,以及越 定性不仅是本体学习算法具有泛化性的前提,而 来越多的本体算法被设计并尝试用于不同的本体 且稳定性参数控制了本体学习算法广义界的上界。 工程应用领域,学习算法也被逐渐应用于本体。 本文针对删除一个样本的LO0操作,给出对 本体学习算法就是将机器学习方法与本体自身结 应的本体学习算法稳定性和本体函数假设空间一 构相融合,通过本体样本的学习得到本体函数。 致稳定性定义。并利用统计学方法,针对两类不 具体地说,本体用图结构表示,设G=(V,E)为本体 同的LOO一致稳定性定义,分别给出广义界的估 图对应某个本体O,其顶点对应O中概念,顶点 计值,这些界优于之前同框架LO0一致稳定性设 之间的边对应两个顶点某种直接联系。本体可以 定论文中得到的广义界。 用有向图来表示,其中边的权值由边的类型等因 素决定。本体学习算法可以看成图算法,通过本 1本体学习算法及稳定性 体样本S按照一定的学习规则学习得到本体函数 设Z为本体数据集,在非监督本体学习中 f:V→R。该本体函数的作用是将整个本体图映 射到一维实数轴,每个本体顶点(对应本体概念) Z即为本体图顶点数据V,对于监督本体学习则 映射为一维实数。在最开始的本体数值化表示 Z=V×Y。设本体学习算法A:Z→F,其中F是 中,往往要求每个本体顶点都用一个p维向量来 本体函数空间,即假设空间。A(S)或者A(S,)表示 表示,因此本体学习算法本质上就变成一种降维 本体学习算法A作用在本体数据S的输出函数。 算法,目标是得到本体函数f:RP→R。相关本体 :F×Z→R为本体亏损函数(也可以将其正则化, 学习这方面的研究可参考文献[11-19)。 即取值限定在区间[0,1]内,进而也可以表示为 稳定性是一个本体学习算法在具体工程应用 1:F×Z→[0,1]),给定本体函数f和本体样本点v, 领域可以使用的基本条件,它要求算法在学习样 本体亏损函数表示为f,z)。设S={1,2,…,}为 本集发生轻微改变时输出结果不会发生本质性的 容量为n的本体样本。删除样本集S中的第i(i∈ 改变。常见的变换有:删除一个样本(leave one {1,2,…,川)个样本y,对应的样本集变为S= out,LOO),删除两个样本(leave two out,LTO),替 {亿1,2,…,-l,4l,…,n,称此类变换为LOO(leave 换一个样本(place one,PO)。只有满足稳定性的 one out)。在样本S的表示中,若算法为非监督本 本体学习算法才具备泛化性,才有可能对同类数 体学习算法,则=;在监督本体学习下有 据发挥作用。已有部分文献对本体算法的稳定性 =(v,)。如果对于任意位置iie{1,2,…,n),任 进行了讨论,可参考文献[15,20-21]。 意S和S,以及任意v∈V,有 具体地说,通常把本体数据分成两类:训练集 |A(S),z)-lA(S,z≤y本体的框架来支持来自智能交通系统的数据的集 成和可视化。Al-Sayed 等 [3] 设计了一种称为 Cloud￾FNF 的综合云本体,根据该本体结构,云服务被 分类为若干个类别。Tebes 等 [4] 给出分析和记录 软件测试本体的系统审查结果的方法。Pradeep 等 [5] 在基于本体的平衡二叉树中搜索预定的用户 查询,最后使用 Okapi BM25 对相关结果进行排序 并交付给用户。Hema 等 [6] 提出了一种新的基于 信任的隐私保护框架,通过本体服务排序 TBPF￾OSR 进行用户身份验证。 Messaoudi 等 [7] 给出了 关于疾病治疗医学本体研究的综述。Mantovani 等 [ 8 ] 提出了一种本体驱动的地质图知识表示。 本体形式语言允许通过语义类别和属性对地球科 学家的解释进行机器可读编码,并支持知识共享 和互操作性。Abeysinghe 等 [9] 通过在基因本体 (gene ontology, GO) 本体概念的基于序列的表示 之上,利用新的术语代数以及 3 个条件规则(单调 性、交集和子概念规则)开发了基于包含的子项 推理框架。Kossmann 等 [10] 提出了潜艇探测着陆 器的本体驱动框架。 G = (V,E) f : V → R f : R p → R 随着越来越多的本体被定义和应用,以及越 来越多的本体算法被设计并尝试用于不同的本体 工程应用领域,学习算法也被逐渐应用于本体。 本体学习算法就是将机器学习方法与本体自身结 构相融合,通过本体样本的学习得到本体函数。 具体地说,本体用图结构表示,设 为本体 图对应某个本体 O,其顶点对应 O 中概念,顶点 之间的边对应两个顶点某种直接联系。本体可以 用有向图来表示,其中边的权值由边的类型等因 素决定。本体学习算法可以看成图算法,通过本 体样本 S 按照一定的学习规则学习得到本体函数 。该本体函数的作用是将整个本体图映 射到一维实数轴,每个本体顶点(对应本体概念) 映射为一维实数。在最开始的本体数值化表示 中,往往要求每个本体顶点都用一个 p 维向量来 表示,因此本体学习算法本质上就变成一种降维 算法,目标是得到本体函数 。相关本体 学习这方面的研究可参考文献 [11-19]。 稳定性是一个本体学习算法在具体工程应用 领域可以使用的基本条件,它要求算法在学习样 本集发生轻微改变时输出结果不会发生本质性的 改变。常见的变换有:删除一个样本 (leave one out, LOO),删除两个样本 (leave two out, LTO),替 换一个样本 (place one, PO)。只有满足稳定性的 本体学习算法才具备泛化性,才有可能对同类数 据发挥作用。已有部分文献对本体算法的稳定性 进行了讨论,可参考文献 [15,20-21]。 具体地说,通常把本体数据分成两类:训练集 (样本集)和测试集。通过本体样本的训练,按照 一定的本体学习算法得到本体函数,再将本体函 数应用于同类本体数据(测试集)。我们希望从 样本学习得到的本体函数同样适用于同一个本体 的其他本体数据,即算法具有很好的扩展性能。 这必须要求本体学习算法具有稳定性,即样本的 轻微改变对学习得到的结果影响很小。从理论上 说,稳定性是一种学习的平滑性,即最优函数的 性能随着样本容量 n 的增加而缓缓提高,其特征 曲线是平滑过渡的,不会在任何一点产生剧烈的 震荡。而强烈的抖动意味着算法对于特定的本体 样本点有着特定的反映,进而说明本体学习算法 本身不适合实验对象数据,即这样的算法得到的 最优本体函数不可能对训练集以外的数据产生很 好的效果。 另一方面,理论研究最关心的是算法的收敛阶 和误差界。本文的动机是在稳定性和误差界之间 找到必然的联系。因此如果一个本体学习算法有 很好的稳定性,那么它的学习误差就会控制在某 个范围内。也就是说,本文的理论结果暗示了稳 定性不仅是本体学习算法具有泛化性的前提,而 且稳定性参数控制了本体学习算法广义界的上界。 本文针对删除一个样本的 LOO 操作,给出对 应的本体学习算法稳定性和本体函数假设空间一 致稳定性定义。并利用统计学方法,针对两类不 同的 LOO 一致稳定性定义,分别给出广义界的估 计值,这些界优于之前同框架 LOO 一致稳定性设 定论文中得到的广义界。 1 本体学习算法及稳定性 Z V Z = V ×Y A : Z n → F A(S ) A(S,·) l : F ×Z → R l : F ×Z → [0,1] l(f,z) S = { z1, z2, ···, zn} i ∈ {1, 2, ··· , n} vi S \i = {z1, z2, ···, zi−1, zi+1, ···, zn} zi = vi zi = (vi , yi) i ∈ {1,2,··· ,n} S \i v ∈ V 设 为本体数据集,在非监督本体学习中, Z 即为本体图顶点数据 ,对于监督本体学习则 。设本体学习算法 ,其中 F 是 本体函数空间,即假设空间。 或者 表示 本体学习算法 A 作用在本体数据 S 的输出函数。 为本体亏损函数(也可以将其正则化, 即取值限定在区间 [0,1] 内,进而也可以表示为 ),给定本体函数 f 和本体样本点 v, 本体亏损函数表示为 。设 为 容量为 n 的本体样本。删除样本集 S 中的第 i( ) 个样本 ,对应的样本集变为 ,称此类变换为 LOO(leave one out)。在样本 S 的表示中,若算法为非监督本 体学习算法,则 ;在监督本体学习下有 。如果对于任意位置 i( ),任 意 S 和 ,以及任意 ,有 l(A(S ),z)−l(A(S \i ),z) ⩽ γ 第 17 卷 智 能 系 统 学 报 ·472·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有