第11卷第3期 智能系统学报 Vol.11 No.3 2016年6月 CAAI Transactions on Intelligent Systems Jun.2016 D0I:10.11992/is.2016030. 网s络出版地址:http:/www.cnki.net/kcms/detail/23.1538.TP.20160513.0924.024.html 一种改进的投影孪生支持向量机 花小朋,孙一颗,丁世飞2 (1.盐城工学院信息工程学院,江苏盐城224051;2.中国矿业大学计算机学院,江苏徐州221116) 摘要:针对投影孪生支持向量机(PTSVM)在训练阶段欠考虑样本空间局部结构和局部信息的缺陷,提出一种具有 一定局部学习能力的有监督分类方法:加权投影孪生支持向量机(weighted PTSVM,WPTSVM)。相比于PTSVM, WPTSVM优势在于:通过构造类内近邻图为每个样本获取特定的权值,并且以加权均值取代标准均值,在一定程度 上提高了算法的局部学习能力:选取异类样本集中少量边界点构造优化问题的约束条件,很大程度上降低了二次规 划求解的时间复杂度:继承了PTSVM的优点,可以看成PTSVM的推广算法。理论分析及其在人造数据集和真实数 据集上的测试结果表明该方法具有上述优势。 关键词:分类:投影孪生支持向量机;局部信息;加权均值;近邻图;二次规划;约束条件;时间复杂度 中图分类号:TP391.4文献标志码:A文章编号:1673-4785(2016)03-0384-06 中文引用格式:花小朋,孙一颗,丁世飞.一种改进的投影孪生支持向量机[J].智能系统学报,2016,11(3):384-391. 英文引用格式:HUA Xiaopeng,SUN Yike,.DING Shifei..An improved projection twin support vector machine[J].CAAI transac- tions on intelligent systems,2016,11(3):384-391. An improved projection twin support vector machine HUA Xiaopeng',SUN Yike',DING Shifei2 (1.School of Information Engineering,Yancheng Institute of Technology,Yancheng 224051,China;2.School of Computer Science and Technology,China University of Mining and Technology,Xuzhou 221116,China) Abstract:A supervised classification method having a local learning ability,called weighted projection twin support vector machine(WPTSVM),is proposed.This method aims to improve upon a defect that projection twin support vector machines (PTSVMs)have,namely,that PTSVMs do not take account of the local structure and local infor- mation of a sample space in the training process.Compared with PTSVM,WPTSVM improves its local learning a- bility to some extent by attaching different weights for each sample according to the within-class neighborhood graph and replacing the standard mean with a weighted mean.Moreover,to reduce computational complexity,WPTSVM chooses a small number of boundary points in the contrary-class based on the between-class neighborhood graph to construct constraints of the original optimization problems.The method inherits the merits of PTSVM and can be re- garded as an improved version of PTSVM.Experimental results on artificial and real datasets indicate the effective- ness of the WPTSVM method. Keywords:classification;projection twin support vector machine;local information;weighted mean;neighborhood graph;quadratic programming;constraint condition;time complexity 在分类问题中,经典支持向量机(SVM)依据间 隔最大化准则生成分类决策面,存在训练时间复杂 度偏高和欠考虑样本分布情况的缺陷2。近年 收稿日期:2016-03-20.网络出版日期:2016-05-13. 来,作为经典SVM的改进方法,非平行超平面分类 基金项目:国家重点基础研究计划项目(2013CB329s02):国家自然科学器(nonparellel hyperplane classifiers,NHCs)[)已经 基金项目(61379101):江苏省自然科学基金项目 (BK20151299). 成为模式识别领域新的研究热点之一。孪生支持向 通信作者:花小朋.E-mail:xp_hua@163.com
第 11 卷第 3 期 智 能 系 统 学 报 Vol.11 №.3 2016 年 6 月 CAAI Transactions on Intelligent Systems Jun. 2016 DOI:10.11992 / tis.2016030. 网络出版地址:http: / / www.cnki.net / kcms/ detail / 23.1538.TP.20160513.0924.024.html 一种改进的投影孪生支持向量机 花小朋1 ,孙一颗1 ,丁世飞2 (1.盐城工学院 信息工程学院,江苏 盐城 224051; 2. 中国矿业大学 计算机学院,江苏 徐州 221116) 摘 要:针对投影孪生支持向量机(PTSVM)在训练阶段欠考虑样本空间局部结构和局部信息的缺陷,提出一种具有 一定局部学习能力的有监督分类方法:加权投影孪生支持向量机(weighted PTSVM,WPTSVM)。 相比于 PTSVM, WPTSVM 优势在于:通过构造类内近邻图为每个样本获取特定的权值,并且以加权均值取代标准均值,在一定程度 上提高了算法的局部学习能力;选取异类样本集中少量边界点构造优化问题的约束条件,很大程度上降低了二次规 划求解的时间复杂度;继承了 PTSVM 的优点,可以看成 PTSVM 的推广算法。 理论分析及其在人造数据集和真实数 据集上的测试结果表明该方法具有上述优势。 关键词:分类;投影孪生支持向量机;局部信息;加权均值;近邻图;二次规划;约束条件;时间复杂度 中图分类号:TP391.4 文献标志码:A 文章编号:1673⁃4785(2016)03⁃0384⁃06 中文引用格式:花小朋,孙一颗,丁世飞.一种改进的投影孪生支持向量机[J]. 智能系统学报, 2016, 11(3): 384⁃391. 英文引用格式:HUA Xiaopeng, SUN Yike, DING Shifei. An improved projection twin support vector machine[J]. CAAI transac⁃ tions on intelligent systems, 2016, 11(3): 384⁃391. An improved projection twin support vector machine HUA Xiaopeng 1 , SUN Yike 1 , DING Shifei 2 (1. School of Information Engineering, Yancheng Institute of Technology, Yancheng 224051, China; 2. School of Computer Science and Technology, China University of Mining and Technology, Xuzhou 221116, China) Abstract:A supervised classification method having a local learning ability, called weighted projection twin support vector machine (WPTSVM), is proposed. This method aims to improve upon a defect that projection twin support vector machines (PTSVMs) have, namely, that PTSVMs do not take account of the local structure and local infor⁃ mation of a sample space in the training process. Compared with PTSVM, WPTSVM improves its local learning a⁃ bility to some extent by attaching different weights for each sample according to the within⁃class neighborhood graph and replacing the standard mean with a weighted mean. Moreover, to reduce computational complexity, WPTSVM chooses a small number of boundary points in the contrary⁃class based on the between-class neighborhood graph to construct constraints of the original optimization problems. The method inherits the merits of PTSVM and can be re⁃ garded as an improved version of PTSVM. Experimental results on artificial and real datasets indicate the effective⁃ ness of the WPTSVM method. Keywords:classification; projection twin support vector machine; local information; weighted mean; neighborhood graph; quadratic programming; constraint condition; time complexity 收稿日期:2016⁃03⁃20. 网络出版日期:2016⁃05⁃13. 基金项目:国家重点基础研究计划项目(2013CB329502);国家自然科学 基 金 项 目 ( 61379101 ); 江 苏 省 自 然 科 学 基 金 项 目 (BK20151299). 通信作者:花小朋. E⁃mail:xp_hua@ 163.com. 在分类问题中,经典支持向量机(SVM)依据间 隔最大化准则生成分类决策面,存在训练时间复杂 度偏高和欠考虑样本分布情况的缺陷[1⁃2] 。 近年 来,作为经典 SVM 的改进方法,非平行超平面分类 器( nonparellel hyperplane classifiers,NHCs) [3] 已经 成为模式识别领域新的研究热点之一。 孪生支持向
第3期 花小朋,等:一种改进的投影孪生支持向量机 ·385· 量机(twin support vector machine,TWSVM)[a是 1 投影孪生支持向量机(PTSVM) NHCs方法中主要代表性算法之一,其主要思想源 于泛化特征值中心支持向量机(generalized eigenval- 假定两类学习样本集分别表示为实数矩阵 ue proximal SVM,GEPSVM)[。TWSVM将GEPS- A∈Rmxa和B∈R“。n为样本维度,m1和m2分别 VM中两个优化子问题转换成两个形如SVM的小 为第1类(+1类)和第2类(-1类)样本数目,并且 规模二次规划问题,从而使其训练时间复杂度缩减 令m=m,+m2。PTSVM算法的优化目标可以看作是 为经典SVM的1/4。除了训练速度上的优势,TWS 在实数空间中寻找两个最佳投影轴为w,和w2的 VM还继承了GEPSVM能够在线性模式很好地处理 决策超平面: 异或(XOR)样本分类问题的优势。然而,当两类样 x'w1+b1=0,x'w2+b2=0. (1) 本具有不同散度分布时,TWSVM的泛化性能欠 佳6。文献[7]提出一种新的非平行超平面分类 需要注意的是,这里的偏置b,=-eAw,/m1, 器:投影孪生支持向量机(projection twin support b2=-eBw2/m2,e1和e2是两个实体为1的列向量, vector machine,PTSVM)。与TWSVM不同的是, A=[x"x"…],xBx=[x2x2…,],x0 PTSVM优化目的是为每类样本寻找最佳投影轴,而 表示第i类的第j个样本。 且通过递归迭代算法,PTSVM能够生成多个正交投 第1类超平面的优化准则PTSVM-1: 影轴。实验结果表明,PTSVM对复杂的XOR问题 min 具有更好的分类能力。为解决非线性分类问题。文 i-) 献[8]进一步提出PTSVM的非线性方法。 然而分析发现,PTSVM在训练过程中仅仅考虑 s.t. xe-w)∑0+≥1,5 样本空间的全局结构和全局信息,忽视了样本空间 (2) 的局部结构和局部信息。许多研究结果表明同类数 式中C1是惩罚参数,为损失变量。 据集中大部分样本在局部上是关联的(即数据集中 显然,PTSVM在优化目标函数中考虑的训练样 存在潜藏的局部几何结构),而这种内在的局部信 息对数据分类又是至关重要的[。这种潜在的局 本集内在的散度 )体 部信息可以通过数据集中样本间的k近邻关系进行 m1j=1 现的是样本集内在的全局分布。故该方法忽视了潜 挖掘[11山」 藏在训练样本集内部的局部几何结构。 基于上述分析,本文基于PTSVM提出一种新 的具有一定局部学习能力的非平行超平面分类器算 2加权投影孪生支持向量机(WPTSVM) 法:加权投影孪生支持向量机(weighted PTSVM, WPTSVM)。相比于PTSVM,WPTSVM优势体现在 2.1算法构造 以下4个方面:1)通过构造类内近邻图为每个样本 为刻画同类样本集内在的紧凑型和异类样本集 获取特定的权值,并且以加权均值取代标准均值,在 间的分散性,依据图论1,11为每类决策面构建类内 一定程度上提高了算法的局部学习能力:2)选取异 近邻图G和类间近邻图G· 类样本集中少量边界点构造优化问题的约束条件, 定义1给定第c类中的任意两个样本x)和 很大程度上降低了二次规划求解的时间复杂度; x⊙,(c=1,2;i,j=1,2,…,m),则类内近邻图G, 3)WPTSVM继承了PTSVM的优点,可以看成PTS 的相似矩阵W(W)mm,可定义为 VM的推广算法。4)WPTSVM具有更好分类性能。 听=ep(-En-Im9eNe(9)或0ee(s. (3) (0,其他 式中:t为热核参数,Ne(x)表示x的k近邻样本集。 1, is k nearest neighbors of 定义2]考虑第c类样本x⊙,给定相反类 W- 0 其他 中任意样本x(l=1,2,…,m),则类间近邻图Gd (4) 的相似矩阵W(W)ma,可定义为 依据定义2,第c类中每一个样本定义权重:
量机 ( twin support vector machine, TWSVM) [4] 是 NHCs 方法中主要代表性算法之一,其主要思想源 于泛化特征值中心支持向量机(generalized eigenval⁃ ue proximal SVM,GEPSVM) [5] 。 TWSVM 将 GEPS⁃ VM 中两个优化子问题转换成两个形如 SVM 的小 规模二次规划问题,从而使其训练时间复杂度缩减 为经典 SVM 的 1 / 4。 除了训练速度上的优势,TWS⁃ VM 还继承了 GEPSVM 能够在线性模式很好地处理 异或(XOR)样本分类问题的优势。 然而,当两类样 本具有不同散度分布时, TWSVM 的泛化性能欠 佳[6] 。 文献[7] 提出一种新的非平行超平面分类 器:投影孪生支持向量机 ( projection twin support vector machine, PTSVM)。 与 TWSVM 不 同 的 是, PTSVM 优化目的是为每类样本寻找最佳投影轴,而 且通过递归迭代算法,PTSVM 能够生成多个正交投 影轴。 实验结果表明,PTSVM 对复杂的 XOR 问题 具有更好的分类能力。 为解决非线性分类问题。 文 献[8]进一步提出 PTSVM 的非线性方法。 然而分析发现,PTSVM 在训练过程中仅仅考虑 样本空间的全局结构和全局信息,忽视了样本空间 的局部结构和局部信息。 许多研究结果表明同类数 据集中大部分样本在局部上是关联的(即数据集中 存在潜藏的局部几何结构),而这种内在的局部信 息对数据分类又是至关重要的[9] 。 这种潜在的局 部信息可以通过数据集中样本间的 k 近邻关系进行 挖掘[9⁃11] 。 基于上述分析,本文基于 PTSVM 提出一种新 的具有一定局部学习能力的非平行超平面分类器算 法:加权投影孪生支持向量机 ( weighted PTSVM, WPTSVM)。 相比于 PTSVM,WPTSVM 优势体现在 以下 4 个方面:1)通过构造类内近邻图为每个样本 获取特定的权值,并且以加权均值取代标准均值,在 一定程度上提高了算法的局部学习能力;2)选取异 类样本集中少量边界点构造优化问题的约束条件, 很大程度上降低了二次规划求解的时间复杂度; 3)WPTSVM继承了 PTSVM 的优点,可以看成 PTS⁃ VM 的推广算法。 4)WPTSVM 具有更好分类性能。 1 投影孪生支持向量机(PTSVM) 假定两类学习样本集分别表示为实数矩阵 A∈R m1 ×n和 B∈R m2 ×n 。 n 为样本维度,m1 和 m2 分别 为第 1 类(+1 类)和第 2 类( -1 类)样本数目,并且 令 m =m1 +m2 。 PTSVM 算法的优化目标可以看作是 在实数空间中寻找两个最佳投影轴为 w1 和 w2 的 决策超平面: x Tw1 + b1 = 0,x Tw2 + b2 = 0. (1) 需要注意的是,这里的偏置b1 = - e T 1Aw1 / m1 , b2 = -e T 2Bw2 / m2 ,e1 和 e2 是两个实体为 1 的列向量, A= [x (1) 1 x (1) 2 … x (1) m1 ] T , xBx = [x (2) 1 x (2) 2 …,x (2) m2 ] T , x (i) j 表示第 i 类的第 j 个样本。 第 1 类超平面的优化准则 PTSVM⁃1: min 1 2 ∑ m1 i = 1 w T 1 x (1) i - w T 1 1 m1 ∑ m1 j = 1 x (1) j æ è ç ö ø ÷ 2 + C1∑ m2 l = 1 ξl s.t. - w T 1 x (2) l - w T 1 1 m1 )∑ m1 j = 1 x (1) l æ è ç ö ø ÷ + ξl ≥ 1,ξl ≥ 0, (2) 式中 C1 是惩罚参数,xl为损失变量。 显然,PTSVM 在优化目标函数中考虑的训练样 本集内在的散度 ∑ m1 i = 1 w T 1 x (1) i - w T 1 1 m1 ∑ m1 j = 1 x (1) j æ è ç ö ø ÷ 2 ,体 现的是样本集内在的全局分布。 故该方法忽视了潜 藏在训练样本集内部的局部几何结构。 2 加权投影孪生支持向量机(WPTSVM) 2.1 算法构造 为刻画同类样本集内在的紧凑型和异类样本集 间的分散性,依据图论[10,12] 为每类决策面构建类内 近邻图 Gs和类间近邻图 Gd 。 定义 1 给定第 c 类中的任意两个样本 x (c) i 和 x (c) j , (c = 1,2;i,j = 1,2, …,mc), 则类内近邻图 Gs 的相似矩阵 W s W s ij ( ) m1 ×m1可定义为 W s ij = exp( - ‖x (c) i - x (c) j ‖2 / t),x (c) j ∈ Ne(x (c) i ) 或 x (c) i ∈ Ne(x (c) j ), 0, 其他 { (3) 式中:t 为热核参数,Ne(x)表示 x 的 k 近邻样本集。 定义 2 [12] 考虑第 c 类样本 x (c) i ,给定相反类 中任意样本 x (c) l (l = 1, 2, …,mc),则类间近邻图 Gd 的相似矩阵 W d W d il ( ) m1 ×m2可定义为 W d il = 1, x (c) l is k nearest neighbors of x (c) i {0, 其他 (4) 依据定义 2,第 c 类中每一个样本定义权重: 第 3 期 花小朋,等:一种改进的投影孪生支持向量机 ·385·
·386. 智能系统学报 第11卷 1, 3i,W≠0 和= (5) 式中a=[a1,a,…,a,]T。 0, 其他 由此对偶问题的求解可得原问题式(6)中投影 显然,权重=1样本是第c类样本集的边界样本。 轴"1。类似的方法,可求原问题式(7)中投影 定义3 WPTSVM算法中,第1类训练样本集 轴w2o 相应决策超平面的优化准则WPTSVM-1: 对于未知样本x,WPTSVM的决策函数为 2 (d,→x∈第1类 2=1 label(x)=argmind= 1=1 e=1.2 d,→x∈第2类 st-(wx9-w9g")+5≥P点≥0 (10) (6) 式中:d,=wx-w2入x1,·表示绝对值。 1 第2类超平面优化准则WPTSVM-2: 2.2算法分析 1 2 这里以WPTSVM的第1类样本优化问题 WPTSVM-1为例进行算法分析,第2类样本优化问 题WPTSVM-2有类似的算法分析。 s.tf"(wx-w∑2x2)+n:≥f,m:≥0 考虑对偶形式式(9),假设实对称矩阵 i=1 (7) (A-e,eE"A)'Dm(A-e,eE"A))可逆(若 式中:C1和C2是惩罚参数,,和7:为损失变量, 不可逆,可采用类似文献[3]方法引入正则化项 p9-2wA9=p/p°,e=1,2。 I(e>0),e尽可能的小)。式(14)中的核函数 K(·)只有保证Mercer核时,才能保证其是二次凸 i= i=1 式(6)中,P)代表样本x)的权重,p)值越 规划,所求的解才为全局最优解。为验证这一问题, 大,表示x)越重要,对保持样本空间局部信息的 给出如下定理。 定理1式(9)为凸二次规划。 贡献程度越大:∑入x:”为第1类样本空间的加 证明式(9)核矩阵: i三1 权均值,比起式(2)中的标准均值更能体现样本空 K=[kg=(F(2)(B -e2eE(DA)). 间的局部结构);约束条件表明WPTSVM-1仅仅 ((A -e,eE(DA)D((A -eeE(A))-1. 考虑第2类样本中2=1的边界样本。显然,式 (F2②(B-e2eEA))T (6)优化目标是为第1类样本寻找最佳投影轴 xwx1,使得权重较大的样本投影后尽可能聚集在加 是实对称矩阵。下面证明矩阵K是半正定的。设 权均值中心附近,而第2类中”=1的边界样本离 任意x∈R,则有x'Kr=(x(F2)(B-e2eE四 中心尽可能远。式(7)有类似的几何解释式。式 A)(A-eeE”A)TD0(A-e,eEDA)2)2≥ (6)矩阵形式为 O,因此K半正定且为Mercer核函数。根据文献 min 2 (Aw -eeE(Aw )T [14]中引理2可知,式(9)为凸二次规划。证毕。 定理2假定:是对偶问题式(9)的解,则w D((Aw:-e:eE(Aw)+Ces 是原优化问题式(6)的全局最优解。 s.t-F②(Bw1-e,eEAw,)+专≥F2e2,专≥0 证明由定理1的证明可得,式(9)为凸二次 (8) 规划问题,又依据文献[14]中引理3的满足条件可 式中:52=(,…,专)',D0=diag(p0,…,p), 知,该二次规划的解为全局最优解。证毕。 Ew=diag(A",…,9),F2=diag2,…f)。 2.3算法比较 类似于传统SVM求解方法,通过引入拉格朗日 2.3.1泛化性能 函数生成式(8)的对偶问题 定理3 PTSVM是WPTSVM的特例。 min2d(F(B-eeiE"A)× 证明考虑WPTSVM的第1类样本的优化准 则(7)。令D1)=I∈Rmm,F(2)=1∈R2Xm,则式 ((A -e:eE(DA)D(D(A -e eE(DA)) (7)转化为PTSVM的第1类样本的优化准则(2)。 (F2(B-ezeE(DA))a -eia 对于WPTSVM的第2类样本的优化准则(8)有类似 s.t.0≤w≤C1e2 (9) 的特性。因此,PTSVM是WPTSVM的特例,而
f (c) l = 1, ∃i,W d il ≠ 0 {0, 其他 (5) 显然,权重 f (c) l = 1 样本是第 c 类样本集的边界样本。 定义 3 WPTSVM 算法中,第 1 类训练样本集 相应决策超平面的优化准则 WPTSVM⁃1: min 1 2 ∑ m1 i = 1 ρ (1) i w T 1 x (1) i - w T 1∑ m1 j = 1 λ (1) j x (1) ( j ) 2 + C1∑ m2 l = 1 ξl s.t. - f (2) l w T 1 x (2) l - w T 1∑ m1 j = 1 λ (1) j x (1) ( j ) + ξl ≥ f (2) l ,ξl ≥ 0 (6) 第 2 类超平面优化准则 WPTSVM⁃2: min 1 2 ∑ m2 l = 1 ρ (2) l w T 2 x (2) l - w T 2∑ m2 j = 1 λ (2) j x (2) ( j ) 2 + C2∑ m1 i = 1 ηi, s.t.f (1) i w T 2 x (1) i - w T 2∑ m2 j = 1 λ (2) j x (2) ( j ) + ηi ≥ f (1) i ,ηi ≥ 0 (7) 式中: C1 和 C2 是惩罚参数,ξl 和 ηi 为损失变量, ρ (c) i =∑ mc j = 1 W s ij,λ (c) j = ρ (c) j /∑ mc i = 1 ρ (c) i ,c = 1,2。 式(6)中,ρ (1) i 代表样本 x (1) i 的权重,ρ (1) i 值越 大,表示 x (1) i 越重要,对保持样本空间局部信息的 贡献程度越大; ∑ m1 j = 1 λ (1) j x (1) j 为第 1 类样本空间的加 权均值,比起式(2)中的标准均值更能体现样本空 间的局部结构[13] ;约束条件表明 WPTSVM⁃1 仅仅 考虑第 2 类样本中 f (2) l = 1 的边界样本。 显然,式 (6) 优化目标是为第 1 类样本寻找最佳投影轴 xwx1 ,使得权重较大的样本投影后尽可能聚集在加 权均值中心附近,而第 2 类中 f (1) l = 1 的边界样本离 中心尽可能远。 式(7) 有类似的几何解释式。 式 (6)矩阵形式为 min 1 2 Aw1 - e1 e T 1E (1)Aw1 ( ) T D (1) Aw1 - e1 e T 1E (1)Aw1 ( ) + C1 e T 2 ξ s.t. - F (2) Bw1 - e2 e T 1E (1)Aw1 ( ) + ξ ≥ F (2) e2,ξ ≥0 (8) 式中:ξ2 = ( ξ1 ,…,ξm2 ) T ,D (1) = diag( ρ (1) 1 ,…,ρ (1) m1 ), E (1)= diag(λ (1) 1 ,…,λ (1) m1 ),F (2)= diag(f (2) 1 ,…,f (2) m2 )。 类似于传统 SVM 求解方法,通过引入拉格朗日 函数生成式(8)的对偶问题 min 1 2 α T F (2) B - e2 e T 1E (1) ( ( A) ) × A - e1 e T 1E (1) ( A) TD (1) A - e1 e T 1E (1) ( ( A) ) -1 F (2) B - e2 e T 1E (1) ( ( A) ) Tα - e T 2α s.t. 0 ≤ α ≤ C1 e2 (9) 式中 α= [α1 ,α2 ,…,αm2 ] T 。 由此对偶问题的求解可得原问题式(6)中投影 轴 w1 。 类 似 的 方 法, 可 求 原 问 题 式 ( 7) 中 投 影 轴 w2 。 对于未知样本 x,WPTSVM 的决策函数为 label(x) = argmin c = 1,2 {dc} = d1⇒x ∈ 第 1 类 {d2⇒x ∈ 第 2 类 (10) 式中:dc = w T c x-w T c ∑ mc j = 1 λ (c) j x (c) j , · 表示绝对值。 2.2 算法分析 这里 以 WPTSVM 的 第 1 类 样 本 优 化 问 题 WPTSVM⁃1 为例进行算法分析,第 2 类样本优化问 题 WPTSVM⁃2 有类似的算法分析。 考虑 对 偶 形 式 式 ( 9 ), 假 设 实 对 称 矩 阵 A - e1 e T 1E (1) ( A) TD (1) A - e1 e T 1E (1) ( ( A) ) 可逆(若 不可逆,可采用类似文献[ 3] 方法引入正则化项 I(ε>0),ε 尽 可 能 的 小)。 式 ( 14 ) 中 的 核 函 数 K(·)只有保证 Mercer 核时,才能保证其是二次凸 规划,所求的解才为全局最优解。 为验证这一问题, 给出如下定理。 定理 1 式(9)为凸二次规划。 证明 式(9)核矩阵: K ~ = [ k ~ ij = F (2) B - e2 e T 1E (1) ( ( A) )· A - e1 e T 1E (1) ( A) TD (1) A - e1 e T 1E (1) ( ( A) ) -1· F (2) B - e2 e T 1E (1) ( ( A) ) T 是实对称矩阵。 下面证明矩阵 K ~ 是半正定的。 设 任意 x ∈ R m2 , 则有 x TK ~ x = ( x T (F (2) (B-e2 e T 1 E (1) A)) ((A-e1 e T 1 E (1)A) TD (1) (A-e1 e T 1 E (1)A)) -1/ 2 ) 2≥ 0,因此 K ~ 半正定且为 Mercer 核函数。 根据文献 [14]中引理 2 可知,式(9)为凸二次规划。 证毕。 定理 2 假定 α 是对偶问题式(9)的解,则 w1 是原优化问题式(6)的全局最优解。 证明 由定理 1 的证明可得,式(9) 为凸二次 规划问题,又依据文献[14]中引理 3 的满足条件可 知,该二次规划的解为全局最优解。 证毕。 2.3 算法比较 2.3.1 泛化性能 定理 3 PTSVM 是 WPTSVM 的特例。 证明 考虑 WPTSVM 的第 1 类样本的优化准 则(7)。 令 D (1) = I∈R m1 ×m1 ,F (2) = I∈R m2 ×m2 ,则式 (7)转化为 PTSVM 的第 1 类样本的优化准则(2)。 对于 WPTSVM 的第 2 类样本的优化准则(8)有类似 的特 性。 因 此, PTSVM 是 WPTSVM 的 特 例, 而 ·386· 智 能 系 统 学 报 第 11 卷
第3期 花小朋,等:一种改进的投影孪生支持向量机 .387. WPTSVM是PTSVM的推广算法。证毕。 第2类超平面的优化准则为 定理3说明了本文提出的WPTSVM算法继承 了PTSVM的优点。进一步比较式(7)和(2)可知, min(K(B.C)u:-e(BC) PTSVM仅仅考虑类内样本的全局信息,而WPTSVM (K(B,CT)u,-e,eE2K(B,CT)u2)C2ein, 用加权均值代替PTSVM中标准均值,可以在一定 s.t.F((K(A.C")uz -eeEK(B.CT)u2)+ 程度上提高算法的局部学习能力,因为基于近邻图 n≥F"e1,n≥0 (12) 的加权均值比起标准均值更能体现样本空间的局部 通过引入拉格朗日函数,可按照类似上述 结构)。除此之外,WPTSVM还在优化目标函数中 WPTSVM算法的推导过程分别得出式(11)和(12) 引入了样本权值,权值越大,说明该样本越重要,对 的对偶形式,然后通过二次规划求解可求得投影矢 保持训练样本集潜在局部信息的贡献程度越大。图 量u,和u2。NWPTSVM的决策函数为 1给出了WPTSVM与PTSVM在人造数据集上的分 (d,→x∈第1类 类决策面。不难看出,WPTSVM的决策面能够在一 label(x)=argmind. (d2→xe第2类 定程度上体现样本集内在局部流形结构,而PTSVM (13) 相对较弱。 1.09w 式中d.=K(x',C),- 9K9)r.c)m。 =1 0.6 PTSVM 3实验分析 0.2 -0.2 实验选用人造数据集和真实数据集,进一步验 -0.6 WPTSVM 证本文WPTSVM方法的有效性。实验环境: -1.0 2.3 GHz CPU,2GB内存,实验软件MATLAB7.1。 -0.8-0.6-0.4-0.200.20.40.60.81.0 3.1复杂交叉数据集 图1两种算法人造数据集上的比较 相对于经典SVM,线性模式下对XOR问题的 Fig.1 Comparision of two algorithms on artificial dataset 测试能力是非平行超平面分离器优势之一[3。因 2.3.2训练时间复杂度 此,本节首先验证MPTSVM测试交叉数据集的能 从二次规划求解角度分析,PTSVM在训练阶段 力。图2给出一种较复杂的人造交叉数据集:Comx- 要针对每类中全部样本进行求解,所以计算复杂度 or)。表1给出了TWSVM,.PTSVM和WPTSVM三 为o(m+m2),而WPTSVM优化准则中约束条件指 种算法在该测试数据集上10折交叉验证结果。参 明只对=1的样本(边界样本)进行二次规划求 数C,与C,的搜索范围为{21i=-8,-6,…,+8}: 解,计算复杂度为o(m-y+m2-v),其中m1-w,m2-w WPTSVM中类内近邻参数k,的搜索范围为{1,2, 分别为第1类样本及第2类样本中相应边界样本点 …,9},类间近邻参数k2=5,热核参数t的搜索范围 数。诚然,WPTSVM在训练阶段要事先求出每个样 为{2Ii=-1,0,…,8}。从表1实验结果来看,PTS 本的类内权重及类间权重,计算复杂度分别为0 VM分类性能优于TWSVM,而本文WPTSVM则具 (m+m)和o(2m1·m2)。 有更佳的分类性能。 2.3.3构造非线性分类算法 1.0 针对线性不可分情况,本文进一步提出基于核 0.6 PTSVM 空间的非线性WPTSVM算法一NWPTSVM。 0.2 定义4 NWPTSVM的第1类超平面的优化准 则为 WPTSVM -0.6 mi5Ka.c'4,-eeiE"(A.c)'D" -1.0 -0.8-0.6-0.4-0.200.2040.60.81.0 (K(A,C)u-eeE(K(A,C")u)+Ce, s.t.-F (K(B.CT)u:-ezeEK(A.CT)u)+ 图2复杂交叉数据集 专≥F2e2,5≥0 (11) Fig.2 Compxor dataset
WPTSVM 是 PTSVM 的推广算法。 证毕。 定理 3 说明了本文提出的 WPTSVM 算法继承 了 PTSVM 的优点。 进一步比较式(7)和(2)可知, PTSVM 仅仅考虑类内样本的全局信息,而 WPTSVM 用加权均值代替 PTSVM 中标准均值,可以在一定 程度上提高算法的局部学习能力,因为基于近邻图 的加权均值比起标准均值更能体现样本空间的局部 结构[13] 。 除此之外,WPTSVM 还在优化目标函数中 引入了样本权值,权值越大,说明该样本越重要,对 保持训练样本集潜在局部信息的贡献程度越大。 图 1 给出了 WPTSVM 与 PTSVM 在人造数据集上的分 类决策面。 不难看出,WPTSVM 的决策面能够在一 定程度上体现样本集内在局部流形结构,而 PTSVM 相对较弱。 图 1 两种算法人造数据集上的比较 Fig.1 Comparision of two algorithms on artificial dataset 2.3.2 训练时间复杂度 从二次规划求解角度分析,PTSVM 在训练阶段 要针对每类中全部样本进行求解,所以计算复杂度 为 o(m 3 1 +m 3 2 ),而 WPTSVM 优化准则中约束条件指 明只对 f (c) l = 1 的样本(边界样本)进行二次规划求 解,计算复杂度为 o(m 3 1-SV +m 3 2-SV ),其中 m1-SV ,m2-SV 分别为第 1 类样本及第 2 类样本中相应边界样本点 数。 诚然,WPTSVM 在训练阶段要事先求出每个样 本的类内权重及类间权重,计算复杂度分别为 o (m 2 1 +m 2 2 )和 o(2m1·m2 )。 2.3.3 构造非线性分类算法 针对线性不可分情况,本文进一步提出基于核 空间的非线性 WPTSVM 算法———NWPTSVM。 定义 4 NWPTSVM 的第 1 类超平面的优化准 则为 min 1 2 K(A,C T )u1 - e1 e T 1E (1)K(A,C T )u1 ( ) TD (1)· K(A,C T )u1 - e1 e T 1E (1)K(A,C T )u1 ( ) + C1 e T 2 ξ, s.t. - F (2) K(B,C T )u1 - e2 e T 1E (1)K(A,C T )u1 ( ) + ξ ≥ F (2) e2 ,ξ ≥ 0 (11) 第 2 类超平面的优化准则为 min 1 2 K(B,C T )u2 - e2 e T 2E (2)K(B,C T )u2 ( ) TD (2)· K(B,C T )u2 - e2 e T 2E (2)K(B,C T )u2 ( ) + C2 e T 1η, s.t. F (1) K(A,C T )u2 - e1 e T 2E (2)K(B,C T )u2 ( ) + η ≥ F (1) e1 ,η ≥ 0 (12) 通 过 引 入 拉 格 朗 日 函 数, 可 按 照 类 似 上 述 WPTSVM 算法的推导过程分别得出式(11)和(12) 的对偶形式,然后通过二次规划求解可求得投影矢 量 u1 和 u2 。 NWPTSVM 的决策函数为 label(x) = argmin c = 1,2 {dc} = d1⇒x ∈ 第 1 类 {d2⇒x ∈ 第 2 类 (13) 式中 dc = K(x T ,C T )ui -∑ mc j = 1 λ (c) j K((x (c) j ) T ,C T )ui 。 3 实验分析 实验选用人造数据集和真实数据集,进一步验 证本 文 WPTSVM 方 法 的 有 效 性。 实 验 环 境: 2.3 GHz CPU,2 GB 内存,实验软件 MATLAB 7.1。 3.1 复杂交叉数据集 相对于经典 SVM,线性模式下对 XOR 问题的 测试能力是非平行超平面分离器优势之一[3⁃5] 。 因 此,本节首先验证 MPTSVM 测试交叉数据集的能 力。 图 2 给出一种较复杂的人造交叉数据集:Comx⁃ or [7] 。 表 1 给出了 TWSVM、PTSVM 和 WPTSVM 三 种算法在该测试数据集上 10 折交叉验证结果。 参 数 C1与 C2 的搜索范围为{2 i | i = - 8,- 6,…,+ 8}; WPTSVM 中类内近邻参数 k1 的搜索范围为{ 1,2, …,9},类间近邻参数 k2 = 5,热核参数 t 的搜索范围 为{2 i | i = -1,0,…,8}。 从表 1 实验结果来看,PTS⁃ VM 分类性能优于 TWSVM,而本文 WPTSVM 则具 有更佳的分类性能。 图 2 复杂交叉数据集 Fig.2 Compxor dataset 第 3 期 花小朋,等:一种改进的投影孪生支持向量机 ·387·
·388 智能系统学报 第11卷 表13种算法在复杂交叉数据集上的分类精度(%)比较 (见表2)。显然,WPTSVM方法具有更好的测试效 Table 1 Classification comparision of three algorithms on 果,这说明本文加权措施的确能够在一定程度上提 comxor dataset 高PTSVM算法的局部学习能力。 Dataset TWSVM PTSVM WPTSVM 表23种算法在双月形数据集上的分类精度(%)比较 Table 2 Classification comparision of three algorithms on Comxor 93.76±6.70 95.67±4.73 97.36±2.90 two-moons dataset 3.2流形数据集 Dataset TWSVM PTSVM WPTSVM 数据集two-moons(如图3所示)的结构具有 two-moons 77.17±13.7276.33±12.36 78.83±8.86 明显局部流形,所以该数据集多用于测试算法的局 3.3 UCI数据集 部学习能力[2,1)。这里通过测试two-moons数据集, UCI数据集经常被用来验证算法的分类精 并与TWSVM和PTSVM方法进行比较,验证本文 度[37,1s16)。该数据集包含若干数据子集,涉及诸多 WPTSVM方法局部学习能力。 应用领域。 1.0 0 0.8 实验中选取部分数据子集,利用10-折交叉验 0 0. 04 og°g 证法测试算法分类性能。非线性算法实验中,选择 0. 08 00 高斯核exp(-‖x,-x:‖2/o)作为核函数,参数σ的 0 0 8 0 搜索范围为{21i=-1,0,…,7},其他参数搜索范围 -0.4 -0.6 同3.1节。线性模式及非线性模式下实验结果如表 -0.8 8 -1.0 3和表4分别所示。 -0.8-0.6-0.4-0.200.20.40.60.81.0 从训练时间上看:TWSVM与PTSVM相 当,WPTSVM明显比这两种算法快。原因是WPTS 图3Two-moons数据集 VM选用少量边界样本进行二次规划求解,而其他 Fig.3 Two-moons dataset 两种算法则选择异类中全部样本。 实验选择正负类样本各为50的two-moons数 从分类性能上看:本文提出的WPTSVM算法具 据集。随机抽取40%训练集和60%测试集进行实 有更好的分类能力,这也进一步佐证了本文提高 验,重复此过程10次并记录实验结果的平均值 PTSVM算法局部学习能力的措施确实有效。 表3 线性模式下3种算法的实验比较 Table 3 Experimental comparision of three algorithms on UCI datasets with linear kernel TWSVM PTSVM WPTSVM Dataset 正确率/% 训练时间/s 正确率/% 训练时间/s 正确率/% 训练时间/s Hepatitis(155x19) 84.17±7.79 3.84 83.67±10.80 3.46 87.33±9.17 1.36 Cleve(296×13) 82.42±4.21 5.40 82.08±3.38 5.26 83.46±3.71 2.56 Sonar(208×60) 66.00±16.85 3.93 66.36±14.27 3.82 68.07±13.60 1.58 Bupa_liver(345×6) 68.69±3.23 2.42 67.59±5.30 2.84 70.20±6.42 2.17 Wdbc(569×30) 96.99±1.63 19.77 96.99±1.63 19.95 97.53±1.65 1.14 Haberman (306x3) 74.50±2.11 4.09 74.56±7.90 5.74 75.44±5.03 1.36 Heart (270x13) 84.07±5.25 5.30 84.07±5.51 5.38 85.19±5.49 2.40 Monks2 (432x6) 67.14±4.98 2.84 67.84±3.15 2.56 67.13±3.20 0.78 Monks3.(432×6) 77.41±11.32 6.07 80.74±13.05 6.32 81.69±12.85 3.76 Australian(690x14)) 86.26±4.76 13.37 86.28±4.91 11.90 86.83±5.25 2.81 Pima_india(768×8) 77.17±2.80 40.91 76.41±3.53 42.81 76.79±4.05 10.25 Tic_tac_toe(958×9)) 64.93±2.31 18.07 63.11±5.33 18.21 78.72±6.13 6.24
表 1 3 种算法在复杂交叉数据集上的分类精度(%)比较 Table 1 Classification comparision of three algorithms on comxor dataset Dataset TWSVM PTSVM WPTSVM Comxor 93.76±6.70 95.67±4.73 97.36±2.90 3.2 流形数据集 数据集 two⁃moons (如图 3 所示) 的结构具有 明显局部流形,所以该数据集多用于测试算法的局 部学习能力[2,13] 。 这里通过测试 two⁃moons 数据集, 并与 TWSVM 和 PTSVM 方法进行比较,验证本文 WPTSVM 方法局部学习能力。 图 3 Two⁃moons 数据集 Fig.3 Two⁃moons dataset 实验选择正负类样本各为 50 的 two⁃moons 数 据集。 随机抽取 40%训练集和 60%测试集进行实 验,重复此过程 10 次并记录实验结果的平均值 (见表 2)。 显然,WPTSVM 方法具有更好的测试效 果,这说明本文加权措施的确能够在一定程度上提 高 PTSVM 算法的局部学习能力。 表 2 3 种算法在双月形数据集上的分类精度(%)比较 Table 2 Classification comparision of three algorithms on two⁃moons dataset Dataset TWSVM PTSVM WPTSVM two⁃moons 77.17±13.72 76.33±12.36 78.83±8.86 3.3 UCI 数据集 UCI 数据集经常被用来验 证 算 法 的 分 类 精 度[3⁃7,15⁃16] 。 该数据集包含若干数据子集,涉及诸多 应用领域。 实验中选取部分数据子集,利用 10-折交叉验 证法测试算法分类性能。 非线性算法实验中,选择 高斯核 exp(-‖xi -xj‖2 / σ)作为核函数,参数 σ 的 搜索范围为{2 i | i = -1,0, …,7},其他参数搜索范围 同 3.1 节。 线性模式及非线性模式下实验结果如表 3 和表 4 分别所示。 从训练时间上看: TWSVM 与 PTSVM 相 当,WPTSVM 明显比这两种算法快。 原因是 WPTS⁃ VM 选用少量边界样本进行二次规划求解,而其他 两种算法则选择异类中全部样本。 从分类性能上看:本文提出的 WPTSVM 算法具 有更好的分类能力,这也进一步佐证了本文提高 PTSVM 算法局部学习能力的措施确实有效。 表 3 线性模式下 3 种算法的实验比较 Table 3 Experimental comparision of three algorithms on UCI datasets with linear kernel Dataset TWSVM PTSVM WPTSVM 正确率/ % 训练时间/ s 正确率/ % 训练时间/ s 正确率/ % 训练时间/ s Hepatitis(155×19) 84.17±7.79 3.84 83.67±10.80 3.46 87.33±9.17 1.36 Cleve (296×13) 82.42±4.21 5.40 82.08±3.38 5.26 83.46±3.71 2.56 Sonar (208×60) 66.00±16.85 3.93 66.36±14.27 3.82 68.07±13.60 1.58 Bupa_liver(345×6) 68.69±3.23 2.42 67.59±5.30 2.84 70.20±6.42 2.17 Wdbc (569×30) 96.99±1.63 19.77 96.99±1.63 19.95 97.53±1.65 1.14 Haberman (306×3) 74.50±2.11 4.09 74.56±7.90 5.74 75.44±5.03 1.36 Heart (270×13) 84.07±5.25 5.30 84.07±5.51 5.38 85.19±5.49 2.40 Monks2 (432×6) 67.14±4.98 2.84 67.84±3.15 2.56 67.13±3.20 0.78 Monks3 (432×6) 77.41±11.32 6.07 80.74±13.05 6.32 81.69±12.85 3.76 Australian(690×14) 86.26±4.76 13.37 86.28±4.91 11.90 86.83±5.25 2.81 Pima_india(768×8) 77.17±2.80 40.91 76.41±3.53 42.81 76.79±4.05 10.25 Tic_tac_toe(958×9) 64.93±2.31 18.07 63.11±5.33 18.21 78.72±6.13 6.24 ·388· 智 能 系 统 学 报 第 11 卷
第3期 花小朋,等:一种改进的投影孪生支持向量机 .389. 表4非线性模式下3种算法的实验比较 Table 4 Experimental comparision of three algorithms on UCI datasets with nonlinear kernel TWSVM PTSVM WPTSVM Dataset 正确率/% 训练时间/s 正确率/% 训练时间/s 正确率/% 训练时间/s Spectf(267×46) 83.43±7.15 14.63 82.49±8.36 14.65 84.03±5.17 1.73 Cleve (296x13) 85.12±5.77 7.22 85.93±4.90 7.82 85.24±4.56 3.40 Wpbc(198×33) 79.36±5.52 4.12 78.03±6.59 1.72 79.98±6.62 0.59 P_gene(106×57) 65.50±18.23 2.25 64.13±21.17 2.22 68.13±16.71 1.19 Sonar(208×60) 63.29±18.65 7.55 64.50±13.50 8.63 68.43±13.26 2.78 Spect (267x22) 84.42±9.04 11.42 84.42±7.43 4.01 84.80±8.27 5.54 Monks2(432×6) 68.77±15.24 5.02 68.71±3.43 6.43 68.99±11.07 4.57 Vertebral (310x6) 85.81±6.32 5.63 84.52±6.42 6.02 86.13±6.46 2.87 Monks3(432×6) 98.70±3.89 11.09 98.52±4.44 9.97 99.26±2.22 8.03 Breast gy(277×9) 75.86±5.89 5.24 73.57±4.10 4.04 75.94±6.69 0.87 结束语 [5]MANGASARIAN O L,WILD E W.MultisurFace proximal support vector machine classification via generalized eigen- 本文基于投影孪生支持向量机(PTSVM)提出一 values [J].IEEE transactions on pattern analysis and ma- chine intelligence,2006,28 (1):69-74. 种新的的非平行超平面分类器方法:加权投影孪生支 [6]PENG Xinjun,XU Dong.Bi-density twin support vector ma- 持向量机(WPTSVM)。WPTSVM不仅继承了PTS chines for pattern recognition[J].Neurocomputing,2013, VM方法的优点,而且在一定程度上提高了算法局部 99:134-143. 学习能力。除此之外,WPTSVM通过类间近邻图选 [7]CHEN Xiaobo,YANG Jian,YE Qiaolin,et al.Recursive 择少量边界样本构造优化问题约束条件,相当程度上 projection twin support vector machine via within-class vari- ance minimization[J].Pattern recognition,2011,44 (10/ 降低了二次规划求解时间复杂度。理论分析及实验 11):2643-2655. 结果均验证了本文所提算法的有效性。诚然,WPTS- [8 ]SHAO Yuanhai,WANG Zhen,CHEN Weijie,et al.A reg- VM在构造类内及类间近邻图时,需要花费额外的计 ularization for the projection twin support vector machine 算开销,特别是在学习样本数目较大时,算法计算复 [J].Knowledge-based systems,2013,37 (1):203-210. 杂度会偏高,这也是今后进一步研究的目标。 [9]YANG Xubing,CHEN Songcan,CHEN Bin,et al.Proxi- mal support vector machine using local information [J]. 参考文献: Neurocomputing,2009,73(1):357-365. [10]COVER T M,HART P E.Nearest neighbor pattern classi- [1]皋军,王士同,邓赵红.基于全局和局部保持的半监督 fication [J ]IEEE transactions on information theory, 支持向量机[J].电子学报,2010,38(7):1626-1633. 1967,13(1):21-27. GAO Jun,WANG Shitong,DENG Zhaohong.Global and local [11]WANG Xiaoming,CHUNG Fulai,WANG Shitong.On preserving based semi-supervised support vector machine minimum class locality preserving variance support vector [J].Acta electronica sinica,2010,38(7):1626-1633. machine[J].Patter recognition,2010,43(8):2753- [2]花小朋,丁世飞.局部保持对支持向量机[J].计算机研 2762. 究与发展,2014,51(3):590-597. [12]YE Qiaolin,ZhAO Chunxia,YE Ning,et al.Localized HUAxiaopeng,DING Shifei.Locality preserving twin sup- twin svm via convex minimization[J].Neurocomputing, port vector machines [J].Journal of computer research and 2011.74(4):580-587. development,2014,51(3):590-597. [13]皋军,黄丽莉,王士同.基于局部子域的最大间距判别 [3]DING Shifei,HUA Xiaopeng,YU Junzhao.An overview on 分析[J].控制与决策,2014,29(5):827-832. nonparallel hyperplane support vector machines[J].Neural GAO Jun,HUANG Lili,WANG Shitong.Local sub-do- computing and applications,2014,25(5):975-982. mains based maximum margin criterion [J].Control and [4]JAYADEVA,KHEMCHAND R,CHANDRA S.Twin sup- decision,2014,29(5):827-832. port vector machines for pattern classification [J].IEEE [14]邓乃杨,田英杰.支持向量机一理论、算法与拓展[M] transaction on pattern analysis and machine intelligence, 北京:科学出版社,2009:164-223. 2007,29(5):905-910. [l5]丁立中,廖士中.KMA-a:一个支持向量机核矩阵的近
表 4 非线性模式下 3 种算法的实验比较 Table 4 Experimental comparision of three algorithms on UCI datasets with nonlinear kernel Dataset TWSVM PTSVM WPTSVM 正确率/ % 训练时间/ s 正确率/ % 训练时间/ s 正确率/ % 训练时间/ s Spectf (267×46) 83.43±7.15 14.63 82.49±8.36 14.65 84.03±5.17 1.73 Cleve (296×13) 85.12±5.77 7.22 85.93±4.90 7.82 85.24±4.56 3.40 Wpbc (198×33) 79.36±5.52 4.12 78.03±6.59 1.72 79.98±6.62 0.59 P_gene (106×57) 65.50±18.23 2.25 64.13±21.17 2.22 68.13±16.71 1.19 Sonar (208×60) 63.29±18.65 7.55 64.50±13.50 8.63 68.43±13.26 2.78 Spect (267×22) 84.42±9.04 11.42 84.42±7.43 4.01 84.80±8.27 5.54 Monks2 (432×6) 68.77±15.24 5.02 68.71±3.43 6.43 68.99±11.07 4.57 Vertebral (310×6) 85.81±6.32 5.63 84.52±6.42 6.02 86.13±6.46 2.87 Monks3 (432×6) 98.70±3.89 11.09 98.52±4.44 9.97 99.26±2.22 8.03 Breast_gy(277×9) 75.86±5.89 5.24 73.57±4.10 4.04 75.94±6.69 0.87 4 结束语 本文基于投影孪生支持向量机(PTSVM )提出一 种新的的非平行超平面分类器方法:加权投影孪生支 持向量机(WPTSVM )。 WPTSVM 不仅继承了 PTS⁃ VM 方法的优点,而且在一定程度上提高了算法局部 学习能力。 除此之外,WPTSVM 通过类间近邻图选 择少量边界样本构造优化问题约束条件,相当程度上 降低了二次规划求解时间复杂度。 理论分析及实验 结果均验证了本文所提算法的有效性。 诚然,WPTS⁃ VM 在构造类内及类间近邻图时,需要花费额外的计 算开销,特别是在学习样本数目较大时,算法计算复 杂度会偏高,这也是今后进一步研究的目标。 参考文献: [1]皋军, 王士同, 邓赵红. 基于全局和局部保持的半监督 支持向量机[J]. 电子学报, 2010, 38(7): 1626⁃1633. GAO Jun, WANG Shitong, DENG Zhaohong. Global and local preserving based semi⁃supervised support vector machine [J]. Acta electronica sinica, 2010, 38(7): 1626⁃1633. [2]花小朋, 丁世飞. 局部保持对支持向量机[ J]. 计算机研 究与发展, 2014, 51(3): 590⁃597. HUAxiaopeng, DING Shifei. Locality preserving twin sup⁃ port vector machines [J]. Journal of computer research and development, 2014, 51(3): 590⁃597. [3]DING Shifei, HUA Xiaopeng, YU Junzhao. An overview on nonparallel hyperplane support vector machines[ J]. Neural computing and applications, 2014, 25(5): 975⁃982. [4]JAYADEVA, KHEMCHAND R, CHANDRA S. Twin sup⁃ port vector machines for pattern classification [ J]. IEEE transaction on pattern analysis and machine intelligence, 2007, 29 (5): 905⁃910. [5] MANGASARIAN O L, WILD E W. MultisurFace proximal support vector machine classification via generalized eigen⁃ values [ J]. IEEE transactions on pattern analysis and ma⁃ chine intelligence, 2006, 28 (1): 69⁃74. [6]PENG Xinjun,XU Dong. Bi-density twin support vector ma⁃ chines for pattern recognition[ J]. Neurocomputing, 2013, 99: 134⁃143. [7] CHEN Xiaobo, YANG Jian, YE Qiaolin, et al. Recursive projection twin support vector machine via within⁃class vari⁃ ance minimization[J]. Pattern recognition, 2011, 44 (10 / 11): 2643⁃2655. [8]SHAO Yuanhai, WANG Zhen, CHEN Weijie, et al. A reg⁃ ularization for the projection twin support vector machine [J]. Knowledge⁃based systems, 2013, 37 (1): 203⁃210. [9]YANG Xubing, CHEN Songcan, CHEN Bin, et al. Proxi⁃ mal support vector machine using local information [ J]. Neurocomputing, 2009, 73(1): 357⁃365. [10]COVER T M, HART P E. Nearest neighbor pattern classi⁃ fication [ J ]. IEEE transactions on information theory, 1967, 13 (1): 21⁃27. [11] WANG Xiaoming, CHUNG Fulai, WANG Shitong. On minimum class locality preserving variance support vector machine[ J]. Patter recognition, 2010, 43 ( 8): 2753⁃ 2762. [12] YE Qiaolin, ZhAO Chunxia, YE Ning, et al. Localized twin svm via convex minimization [ J]. Neurocomputing, 2011, 74(4): 580⁃587. [13]皋军, 黄丽莉, 王士同. 基于局部子域的最大间距判别 分析 [J ]. 控制与决策, 2014, 29 (5): 827⁃832. GAO Jun, HUANG Lili, WANG Shitong. Local sub -do⁃ mains based maximum margin criterion [ J]. Control and decision, 2014, 29 (5): 827⁃832. [14]邓乃杨, 田英杰. 支持向量机—理论、算法与拓展[M]. 北京: 科学出版社, 2009: 164⁃223. [15]丁立中, 廖士中. KMA-a: 一个支持向量机核矩阵的近 第 3 期 花小朋,等:一种改进的投影孪生支持向量机 ·389·
.390. 智能系统学报 第11卷 似计算算法[J].计算机研究与发展,2012,49(4): 孙一颗,男,1993年生,硕士研究生,主 746-753. 要研究方向为机器学习、数据挖掘,申 DING Lizhong,LIAO Shizhong.KMA-a:a kernel matrix 请发明专利2项。 approximation algorithm for support vector machines [J]. Journal of computer research and development,2012,49 (4):746-753. [16]XUE Hui,CHEN Songchan.Glocalization pursuit support vector machine [J].Neural computing and applications, 2011,20(7):1043-1053. 丁世飞,男,1963年生,教授,博士 作者简介: 生导师,中国计算机学会高级会员,中 花小朋,男,1975年生,副教授,博 国人工智能学会高级会员,江苏省计算 士,主要研究方向为机器学习与数据挖 机学会人工智能专业委员会委员,主要 掘,发表学术论文10余篇。 研究方向为智能信息处理,目前主持国 家973项目1项、国家自然科学基金项目1项,发表学术论 文60余篇。 2016年第9届FAC智能自主车辆研讨会 2016 9th IFAC Symposium on Intelligent Autonomous Vehicles (IAV) The Symposium targets topics in the field of intelligent autonomous vehicles (IAV).It presents methods and representative tech- niques to either solve typical problems or to document successful test cases and applications.The addressed modality of the vehicles may range from land,sea and air to space and they may be designed as multi vehicle systems in swarms or networked platoons as well as indi- vidual carriers. The covered key topics will include (but will not be limited to): 1)Architectures for autonomous vehicles and teams of IAVs; 2)Perception including sensing,sensor integration,smart sensors and sensor networks; 3)Recognition; 4)Decision support systems,driver support systems,Advanced driver assistance systems; 5)Planning and mission control; 6)Local and global roadmap planning,trajectory tracking and path following; 7)Localization including SLAM and map building; 8)Navigation,guidance and control,motion control,controller design,stability analysis; 9)Human vehicle interaction; 10)Transportation systems; 11)Remote control,monitoring and teleoperation; 12)Fault detection,diagnosis and removal in IAVs and systems; 13)Domestic robots,service and rehabilitation robots; 14)Field robotics,maritime and ocean robots: 15)Networked IAVs: 16)Swarm robotics; 17)Communication and cooperation for teams for IAVs. Website:http://iav2016.inf.h-brs.de/
似计算算法[ J]. 计算机研究与发展, 2012, 49 ( 4): 746⁃753. DING Lizhong, LIAO Shizhong. KMA-a: a kernel matrix approximation algorithm for support vector machines [ J]. Journal of computer research and development, 2012, 49 (4): 746⁃753. [16]XUE Hui, CHEN Songchan. Glocalization pursuit support vector machine [ J]. Neural computing and applications, 2011, 20(7):1043⁃1053. 作者简介: 花小朋,男,1975 年生,副教授,博 士,主要研究方向为机器学习与数据挖 掘,发表学术论文 10 余篇。 孙一颗,男,1993 年生,硕士研究生,主 要研究方向为机器学习、数据挖掘,申 请发明专利 2 项。 丁世飞,男,1963 年生,教授,博士 生导师,中国计算机学会高级会员,中 国人工智能学会高级会员,江苏省计算 机学会人工智能专业委员会委员,主要 研究方向为智能信息处理,目前主持国 家 973 项目 1 项、国家自然科学基金项目 1 项,发表学术论 文 60 余篇。 2016 年第 9 届 IFAC 智能自主车辆研讨会 2016 9th IFAC Symposium on Intelligent Autonomous Vehicles (IAV) The Symposium targets topics in the field of intelligent autonomous vehicles ( IAV). It presents methods and representative tech⁃ niques to either solve typical problems or to document successful test cases and applications. The addressed modality of the vehicles may range from land, sea and air to space and they may be designed as multi vehicle systems in swarms or networked platoons as well as indi⁃ vidual carriers. The covered key topics will include (but will not be limited to): 1)Architectures for autonomous vehicles and teams of IAVs; 2)Perception including sensing, sensor integration, smart sensors and sensor networks; 3)Recognition; 4)Decision support systems, driver support systems, Advanced driver assistance systems; 5)Planning and mission control; 6)Local and global roadmap planning, trajectory tracking and path following; 7)Localization including SLAM and map building; 8)Navigation, guidance and control, motion control, controller design, stability analysis; 9)Human vehicle interaction; 10)Transportation systems; 11)Remote control, monitoring and teleoperation; 12)Fault detection, diagnosis and removal in IAVs and systems; 13)Domestic robots, service and rehabilitation robots; 14)Field robotics, maritime and ocean robots; 15)Networked IAVs; 16)Swarm robotics; 17)Communication and cooperation for teams for IAVs. Website: http:/ / iav2016.inf.h⁃brs.de / ·390· 智 能 系 统 学 报 第 11 卷