第3期 花小朋,等:一种改进的投影孪生支持向量机 ·385· 量机(twin support vector machine,TWSVM)[a是 1 投影孪生支持向量机(PTSVM) NHCs方法中主要代表性算法之一,其主要思想源 于泛化特征值中心支持向量机(generalized eigenval- 假定两类学习样本集分别表示为实数矩阵 ue proximal SVM,GEPSVM)[。TWSVM将GEPS- A∈Rmxa和B∈R“。n为样本维度,m1和m2分别 VM中两个优化子问题转换成两个形如SVM的小 为第1类(+1类)和第2类(-1类)样本数目,并且 规模二次规划问题,从而使其训练时间复杂度缩减 令m=m,+m2。PTSVM算法的优化目标可以看作是 为经典SVM的1/4。除了训练速度上的优势,TWS 在实数空间中寻找两个最佳投影轴为w,和w2的 VM还继承了GEPSVM能够在线性模式很好地处理 决策超平面: 异或(XOR)样本分类问题的优势。然而,当两类样 x'w1+b1=0,x'w2+b2=0. (1) 本具有不同散度分布时,TWSVM的泛化性能欠 佳6。文献[7]提出一种新的非平行超平面分类 需要注意的是,这里的偏置b,=-eAw,/m1, 器:投影孪生支持向量机(projection twin support b2=-eBw2/m2,e1和e2是两个实体为1的列向量, vector machine,PTSVM)。与TWSVM不同的是, A=[x"x"…],xBx=[x2x2…,],x0 PTSVM优化目的是为每类样本寻找最佳投影轴,而 表示第i类的第j个样本。 且通过递归迭代算法,PTSVM能够生成多个正交投 第1类超平面的优化准则PTSVM-1: 影轴。实验结果表明,PTSVM对复杂的XOR问题 min 具有更好的分类能力。为解决非线性分类问题。文 i-) 献[8]进一步提出PTSVM的非线性方法。 然而分析发现,PTSVM在训练过程中仅仅考虑 s.t. xe-w)∑0+≥1,5 样本空间的全局结构和全局信息,忽视了样本空间 (2) 的局部结构和局部信息。许多研究结果表明同类数 式中C1是惩罚参数,为损失变量。 据集中大部分样本在局部上是关联的(即数据集中 显然,PTSVM在优化目标函数中考虑的训练样 存在潜藏的局部几何结构),而这种内在的局部信 息对数据分类又是至关重要的[。这种潜在的局 本集内在的散度 )体 部信息可以通过数据集中样本间的k近邻关系进行 m1j=1 现的是样本集内在的全局分布。故该方法忽视了潜 挖掘[11山」 藏在训练样本集内部的局部几何结构。 基于上述分析,本文基于PTSVM提出一种新 的具有一定局部学习能力的非平行超平面分类器算 2加权投影孪生支持向量机(WPTSVM) 法:加权投影孪生支持向量机(weighted PTSVM, WPTSVM)。相比于PTSVM,WPTSVM优势体现在 2.1算法构造 以下4个方面:1)通过构造类内近邻图为每个样本 为刻画同类样本集内在的紧凑型和异类样本集 获取特定的权值,并且以加权均值取代标准均值,在 间的分散性,依据图论1,11为每类决策面构建类内 一定程度上提高了算法的局部学习能力:2)选取异 近邻图G和类间近邻图G· 类样本集中少量边界点构造优化问题的约束条件, 定义1给定第c类中的任意两个样本x)和 很大程度上降低了二次规划求解的时间复杂度; x⊙,(c=1,2;i,j=1,2,…,m),则类内近邻图G, 3)WPTSVM继承了PTSVM的优点,可以看成PTS 的相似矩阵W(W)mm,可定义为 VM的推广算法。4)WPTSVM具有更好分类性能。 听=ep(-En-Im9eNe(9)或0ee(s. (3) (0,其他 式中:t为热核参数,Ne(x)表示x的k近邻样本集。 1, is k nearest neighbors of 定义2]考虑第c类样本x⊙,给定相反类 W- 0 其他 中任意样本x(l=1,2,…,m),则类间近邻图Gd (4) 的相似矩阵W(W)ma,可定义为 依据定义2,第c类中每一个样本定义权重:量机 ( twin support vector machine, TWSVM) [4] 是 NHCs 方法中主要代表性算法之一,其主要思想源 于泛化特征值中心支持向量机(generalized eigenval⁃ ue proximal SVM,GEPSVM) [5] 。 TWSVM 将 GEPS⁃ VM 中两个优化子问题转换成两个形如 SVM 的小 规模二次规划问题,从而使其训练时间复杂度缩减 为经典 SVM 的 1 / 4。 除了训练速度上的优势,TWS⁃ VM 还继承了 GEPSVM 能够在线性模式很好地处理 异或(XOR)样本分类问题的优势。 然而,当两类样 本具有不同散度分布时, TWSVM 的泛化性能欠 佳[6] 。 文献[7] 提出一种新的非平行超平面分类 器:投影孪生支持向量机 ( projection twin support vector machine, PTSVM)。 与 TWSVM 不 同 的 是, PTSVM 优化目的是为每类样本寻找最佳投影轴,而 且通过递归迭代算法,PTSVM 能够生成多个正交投 影轴。 实验结果表明,PTSVM 对复杂的 XOR 问题 具有更好的分类能力。 为解决非线性分类问题。 文 献[8]进一步提出 PTSVM 的非线性方法。 然而分析发现,PTSVM 在训练过程中仅仅考虑 样本空间的全局结构和全局信息,忽视了样本空间 的局部结构和局部信息。 许多研究结果表明同类数 据集中大部分样本在局部上是关联的(即数据集中 存在潜藏的局部几何结构),而这种内在的局部信 息对数据分类又是至关重要的[9] 。 这种潜在的局 部信息可以通过数据集中样本间的 k 近邻关系进行 挖掘[9⁃11] 。 基于上述分析,本文基于 PTSVM 提出一种新 的具有一定局部学习能力的非平行超平面分类器算 法:加权投影孪生支持向量机 ( weighted PTSVM, WPTSVM)。 相比于 PTSVM,WPTSVM 优势体现在 以下 4 个方面:1)通过构造类内近邻图为每个样本 获取特定的权值,并且以加权均值取代标准均值,在 一定程度上提高了算法的局部学习能力;2)选取异 类样本集中少量边界点构造优化问题的约束条件, 很大程度上降低了二次规划求解的时间复杂度; 3)WPTSVM继承了 PTSVM 的优点,可以看成 PTS⁃ VM 的推广算法。 4)WPTSVM 具有更好分类性能。 1 投影孪生支持向量机(PTSVM) 假定两类学习样本集分别表示为实数矩阵 A∈R m1 ×n和 B∈R m2 ×n 。 n 为样本维度,m1 和 m2 分别 为第 1 类(+1 类)和第 2 类( -1 类)样本数目,并且 令 m =m1 +m2 。 PTSVM 算法的优化目标可以看作是 在实数空间中寻找两个最佳投影轴为 w1 和 w2 的 决策超平面: x Tw1 + b1 = 0,x Tw2 + b2 = 0. (1) 需要注意的是,这里的偏置b1 = - e T 1Aw1 / m1 , b2 = -e T 2Bw2 / m2 ,e1 和 e2 是两个实体为 1 的列向量, A= [x (1) 1 x (1) 2 … x (1) m1 ] T , xBx = [x (2) 1 x (2) 2 …,x (2) m2 ] T , x (i) j 表示第 i 类的第 j 个样本。 第 1 类超平面的优化准则 PTSVM⁃1: min 1 2 ∑ m1 i = 1 w T 1 x (1) i - w T 1 1 m1 ∑ m1 j = 1 x (1) j æ è ç ö ø ÷ 2 + C1∑ m2 l = 1 ξl s.t. - w T 1 x (2) l - w T 1 1 m1 )∑ m1 j = 1 x (1) l æ è ç ö ø ÷ + ξl ≥ 1,ξl ≥ 0, (2) 式中 C1 是惩罚参数,xl为损失变量。 显然,PTSVM 在优化目标函数中考虑的训练样 本集内在的散度 ∑ m1 i = 1 w T 1 x (1) i - w T 1 1 m1 ∑ m1 j = 1 x (1) j æ è ç ö ø ÷ 2 ,体 现的是样本集内在的全局分布。 故该方法忽视了潜 藏在训练样本集内部的局部几何结构。 2 加权投影孪生支持向量机(WPTSVM) 2.1 算法构造 为刻画同类样本集内在的紧凑型和异类样本集 间的分散性,依据图论[10,12] 为每类决策面构建类内 近邻图 Gs和类间近邻图 Gd 。 定义 1 给定第 c 类中的任意两个样本 x (c) i 和 x (c) j , (c = 1,2;i,j = 1,2, …,mc), 则类内近邻图 Gs 的相似矩阵 W s W s ij ( ) m1 ×m1可定义为 W s ij = exp( - ‖x (c) i - x (c) j ‖2 / t),x (c) j ∈ Ne(x (c) i ) 或 x (c) i ∈ Ne(x (c) j ), 0, 其他 { (3) 式中:t 为热核参数,Ne(x)表示 x 的 k 近邻样本集。 定义 2 [12] 考虑第 c 类样本 x (c) i ,给定相反类 中任意样本 x (c) l (l = 1, 2, …,mc),则类间近邻图 Gd 的相似矩阵 W d W d il ( ) m1 ×m2可定义为 W d il = 1, x (c) l is k nearest neighbors of x (c) i {0, 其他 (4) 依据定义 2,第 c 类中每一个样本定义权重: 第 3 期 花小朋,等:一种改进的投影孪生支持向量机 ·385·