第13卷第2期 智能系统学报 Vol.13 No.2 2018年4月 CAAI Transactions on Intelligent Systems Apr.2018 D0:10.11992/tis.201611036 网络出版地址:http:/kns.cnki.net/kcms/detail/23.1538.TP.20170702.0425.010.html 一种基于联合表示的图像分类方法 马忠丽,刘权勇,武凌羽,张长毛,王雷 (哈尔滨工程大学自动化学院,黑龙江哈尔滨150001) 摘要:在图像分类识别中,对于同一目标的不同图像,其训练样本和测试样本在同一位置的像素强度通常不同,这 不利于提取目标图像的显著特征。这里给出一种基于稀疏表示的联合表示的图像分类方法,此方法首先利用相邻列 之间的关系得到原始图像对应的虚拟图像,利用虚拟图像提高图像中中等强度像素的作用.降低过大或过小强度像 素对图像分类的影响:然后用同一个目标的原始图像和虚拟图像一起表示目标,得到目标图像的联合表示:最后利用 联合表示方法对目标分类。针对不同目标图像库的实验研究表明.给出的联合方法优于利用单一图像进行分类的方 法,而且本方法能联合不同的表示方法来提高图像分类正确率。 关键词:图像分类;图像识别:联合表示;虚拟图像:像素强度:稀疏表示;小样本;相邻列 中图分类号:TP391文献标志码:A文章编号:1673-4785(2018)02-0220-07 中文引用格式:马忠丽,刘权勇,武凌羽,等.一种基于联合表示的图像分类方法J小.智能系统学报,2018,13(2):220-226. 英文引用格式:MA Zhongli,LIU Quanyong,WU Lingyu,etal.Syncretic representation method for image classificationJ,CAAI transactions on intelligent systems,2018,13(2):220-226. Syncretic representation method for image classification MA Zhongli,LIU Quanyong,WU Lingyu,ZHANG Changmao,WANG Lei (College of Automation,Harbin Engineering University,Harbin 150001,China) Abstract:In the classified recognition of image,for different images of the same object,because the pixel intensities of the training samples and the test samples at the same positions are usually different,it brings difficulty to extracting the salient features of the object images.This paper proposed an image classification method based on syncretic representa- tion of the sparse representation.Firstly,the virtual image of an original image is obtained by using the connection between adjacent columns of the original image,the virtual image is utilized to enhance the importance of the pixel with moderate intensity and reduce the effects of the pixels with overlarge or undersize intensity on image classification;then the original image and virtual image of the same object are together used to represent the object,so as to obtain the syn- cretic representation of an object image;finally,the syncretic representation method is used for object classification.The experiments on different object image libraries show that,the given syncretic method is superior to the classification method realized by utilizing single image,in addition,by combining the method with other different representation methods,the accuracy of image classification can be improved. Keywords:image classification;image recognition;syncretic representation;virtual image;pixel intensity;sparse rep- resentation;small samples;adjacent columns 图像分类是视觉领域研究的重要内容,基于表 对于提高图像分类的性能非常有帮助。因此,在 示的分类方法是图像分类方法中一种重要的分类方 基于表示的图像分类方法中,为图像找到一种合适 的表示方法是非常重要且有意义的。 法,对表示方法而言,将目标图像恰当地表示出来, 图像分类性能会受到很多因素的影响,其中的 收稿日期:2016-11-30.网络出版日期:2017-07-02 基金项目:黑龙江省自然科学基金项目(LC201425) 两个主要问题是由光照引起的像素强度变化和小样 通信作者:刘权勇.E-mail:690175562@qq.com. 本问题。为解决光照问题带来的影响,文献[4]中提
DOI: 10.11992/tis.201611036 网络出版地址: http://kns.cnki.net/kcms/detail/23.1538.TP.20170702.0425.010.html 一种基于联合表示的图像分类方法 马忠丽,刘权勇,武凌羽,张长毛,王雷 (哈尔滨工程大学 自动化学院,黑龙江 哈尔滨 150001) 摘 要:在图像分类识别中,对于同一目标的不同图像,其训练样本和测试样本在同一位置的像素强度通常不同,这 不利于提取目标图像的显著特征。这里给出一种基于稀疏表示的联合表示的图像分类方法,此方法首先利用相邻列 之间的关系得到原始图像对应的虚拟图像,利用虚拟图像提高图像中中等强度像素的作用,降低过大或过小强度像 素对图像分类的影响;然后用同一个目标的原始图像和虚拟图像一起表示目标,得到目标图像的联合表示;最后利用 联合表示方法对目标分类。针对不同目标图像库的实验研究表明,给出的联合方法优于利用单一图像进行分类的方 法,而且本方法能联合不同的表示方法来提高图像分类正确率。 关键词:图像分类;图像识别;联合表示;虚拟图像;像素强度;稀疏表示;小样本;相邻列 中图分类号:TP391 文献标志码:A 文章编号:1673−4785(2018)02−0220−07 中文引用格式:马忠丽, 刘权勇, 武凌羽, 等. 一种基于联合表示的图像分类方法[J]. 智能系统学报, 2018, 13(2): 220–226. 英文引用格式:MA Zhongli, LIU Quanyong, WU Lingyu, et al. Syncretic representation method for image classification[J]. CAAI transactions on intelligent systems, 2018, 13(2): 220–226. Syncretic representation method for image classification MA Zhongli,LIU Quanyong,WU Lingyu,ZHANG Changmao,WANG Lei (College of Automation, Harbin Engineering University, Harbin 150001, China) Abstract: In the classified recognition of image, for different images of the same object, because the pixel intensities of the training samples and the test samples at the same positions are usually different, it brings difficulty to extracting the salient features of the object images. This paper proposed an image classification method based on syncretic representation of the sparse representation. Firstly, the virtual image of an original image is obtained by using the connection between adjacent columns of the original image, the virtual image is utilized to enhance the importance of the pixel with moderate intensity and reduce the effects of the pixels with overlarge or undersize intensity on image classification; then the original image and virtual image of the same object are together used to represent the object, so as to obtain the syncretic representation of an object image; finally, the syncretic representation method is used for object classification. The experiments on different object image libraries show that, the given syncretic method is superior to the classification method realized by utilizing single image, in addition, by combining the method with other different representation methods, the accuracy of image classification can be improved. Keywords: image classification; image recognition; syncretic representation; virtual image; pixel intensity; sparse representation; small samples; adjacent columns 图像分类是视觉领域研究的重要内容,基于表 示的分类方法是图像分类方法中一种重要的分类方 法,对表示方法而言,将目标图像恰当地表示出来, 对于提高图像分类的性能非常有帮助[1-3]。因此,在 基于表示的图像分类方法中,为图像找到一种合适 的表示方法是非常重要且有意义的。 图像分类性能会受到很多因素的影响,其中的 两个主要问题是由光照引起的像素强度变化和小样 本问题。为解决光照问题带来的影响,文献[4]中提 收稿日期:2016−11−30. 网络出版日期:2017−07−02. 基金项目:黑龙江省自然科学基金项目 (LC201425). 通信作者:刘权勇. E-mail:690175562@qq.com. 第 13 卷第 2 期 智 能 系 统 学 报 Vol.13 No.2 2018 年 4 月 CAAI Transactions on Intelligent Systems Apr. 2018
第2期 马忠丽,等:一种基于联合表示的图像分类方法 ·221· 出光照补偿方法克服Lambertian模型的局限性;文 (N=c×n)个训练样本,那么由所有训练样本组成的 献[2-3]通过对原始图像进行处理来得到其虚拟图 矩阵为X=[X1X2…X]cRmw。假设y表示测试 像,减弱光照的影响,然后利用此互补图像来提高 样本。那么测试样本y可以被近似地表示为 图像分类的准确率。为解决小样本问题,文献[5]通 y=xa+xa+…+xa (1) 过提出基于虚拟样本图像的核协作表示分类方法来 式中:a(i=1,2…,c;s=1,2,…,n)为x的表示系数, 减小训练样本不足对图像分类带来的影响;文献 那么式(1)可以重写为式(2)的简单形式: [6]通过使用原始图像和其对应的镜像图像来克服 y=Xa (2) 小样本问题的影响提高分类识别率。此外,文献 式中:a=[a'a…a]。 [7-8]的研究也表明,通过利用原始图像相邻列的像 在SRC(,1s)中,为了获得稀疏解,式(2)转化 素得到虚拟图像对提高图像分类准确率非常有益。 为式(3)的最优化问题: 传统的表示分类方法能直接利用原始图像来表 @arg minlly-Xall2 s.t.llalT (3) 示待测图像,且能够取得较为满意的分类结果,然 而这是在具有充足的训练样本的前提下得到的结 =L(c,)=arg minao (4) 果,实际情况中经常会遇到训练样本不足(小样本 式中和r都为小值正常数。 问题)的情况,这时就会影响表示分类的效果。文 由于la凶l=arg min o(其中c为适当的正常数), 献[2]虽然利用了虚拟图像和原始图像联合进行分 rsasu 则式(4)可变化为 类,一定程度缓解了小样本问题的影响,但是其得 到的虚拟图像没有突出目标图像的特征信息。此 d=arg min,7心y-Kal6+a∑c aoeRA (5) 外,传统的表示分类方法利用计算较为复杂的1范 st-Ti≤a:≤Ui 数进行求解,不利于实际应用。针对此情况,文献 再根据平切牛顿法1来求解式(⑤)即可得到稀 [9]提出的改进的表示方法利用2范数替代1范数, 疏解αo 并使用两步策略得到了表示求解的快速实现。 在CRC方法中是根据I2范数来求解式(2)的 针对以上问题以及原始图像中较大或较小像素 表示解的,所以式(2)可转化为式(6)所示的最优化 过多给图像分类带来不良影响的问题,本文提出一 问题: 种新的图像表示方法。本方法利用图像中相邻像素 =L(cr)=arg min+a (6 之间的联系,通过简单的数学方法将过大或过小像 素转化为包含有目标更多特征信息的中等强度像素 然后求解表示系数矩阵α如下: 得到虚拟图像,然后同时在原始图像和虚拟图像上 a=(XTX+AD-XTy (7) 应用分类方法,最后融合得分进行分类。与其他传 式中I∈Rxw为单位矩阵。 统方法相比,这种新的图像表示方法不仅能提高图 SRC(I,Is)和CRC方法在求解得到表示系数之 像中等强度像素的占比,弱化光照变化带来的影 后,分别计算测试样本和每类由训练样本和其表示 响,而且可以较好地利用原始图像中相邻像素的相 系数构成的重构图像之间的残差: 关性的特点,提高目标特征的辨识度。此外,联合 =b心-Xa (8) 方法还通过虚拟样本增加样本的数量,充分利用目 式中=[aa…a]T。若 标特征信息,提高了图像分类识别的准确率。 r=min(k,i=1,2...,c) (9) 1常用图像表示方法 那么测试样本y就被分类到第k类。 LRC方法是用每一类训练样本表示测试样本: 常用的图像表示方法有协作表示分类法(CRCo y=Xa (10) 和线性回归分类(LRC)以及SRC方法中的l,正 求解式(10)得到表示系数为 则化最小二乘法(亿1s)等。 a:=(XX)Xiy (11) 假设数据集中总共有c类样本,且每类样本都 有n个列向量形式的训练样本。假设X,=xx…x】∈ 最后再按照式(8)和式(9)分类测试样本。 Rm表示由第i类的训练样本组成的矩阵,且X,的 2基于联合表示的图像分类方法 每一列x表示第i类的一个训练样本,其中m表示 数据集中图像样本的大小;假设数据集中总共有N 基于联合表示的图像分类方法主要包含两个步
出光照补偿方法克服 Lambertian 模型的局限性;文 献[2-3]通过对原始图像进行处理来得到其虚拟图 像,减弱光照的影响,然后利用此互补图像来提高 图像分类的准确率。为解决小样本问题,文献[5]通 过提出基于虚拟样本图像的核协作表示分类方法来 减小训练样本不足对图像分类带来的影响;文献 [6]通过使用原始图像和其对应的镜像图像来克服 小样本问题的影响提高分类识别率。此外,文献 [7-8]的研究也表明,通过利用原始图像相邻列的像 素得到虚拟图像对提高图像分类准确率非常有益。 传统的表示分类方法能直接利用原始图像来表 示待测图像,且能够取得较为满意的分类结果,然 而这是在具有充足的训练样本的前提下得到的结 果,实际情况中经常会遇到训练样本不足 (小样本 问题) 的情况,这时就会影响表示分类的效果。文 献[2]虽然利用了虚拟图像和原始图像联合进行分 类,一定程度缓解了小样本问题的影响,但是其得 到的虚拟图像没有突出目标图像的特征信息。此 外,传统的表示分类方法利用计算较为复杂的 1 范 数进行求解,不利于实际应用。针对此情况,文献 [9]提出的改进的表示方法利用 2 范数替代 1 范数, 并使用两步策略得到了表示求解的快速实现。 针对以上问题以及原始图像中较大或较小像素 过多给图像分类带来不良影响的问题,本文提出一 种新的图像表示方法。本方法利用图像中相邻像素 之间的联系,通过简单的数学方法将过大或过小像 素转化为包含有目标更多特征信息的中等强度像素 得到虚拟图像,然后同时在原始图像和虚拟图像上 应用分类方法,最后融合得分进行分类。与其他传 统方法相比,这种新的图像表示方法不仅能提高图 像中等强度像素的占比,弱化光照变化带来的影 响,而且可以较好地利用原始图像中相邻像素的相 关性的特点,提高目标特征的辨识度。此外,联合 方法还通过虚拟样本增加样本的数量,充分利用目 标特征信息,提高了图像分类识别的准确率。 1 常用图像表示方法 常用的图像表示方法有协作表示分类法 (CRC)[10] 和线性回归分类 (LRC)[11]以及 SRC[12]方法中的 l1 正 则化最小二乘法 (l1_ls)[13]等。 Xi =[x 1 i x 2 i ··· x n i ] ∈ ℜm×n x s i 假设数据集中总共有 c 类样本,且每类样本都 有 n 个列向量形式的训练样本。假设 表示由第 i 类的训练样本组成的矩阵,且 Xi 的 每一列 表示第 i 类的一个训练样本,其中 m 表示 数据集中图像样本的大小;假设数据集中总共有 N N = c×n X = [X1 X2 ··· Xc] ⊂ ℜm×N ( ) 个训练样本,那么由所有训练样本组成的 矩阵为 。假设 y 表示测试 样本。那么测试样本 y 可以被近似地表示为 y = x 1 1α 1 1 + x 2 1α 2 1 +· · ·+ x n cα n c (1) α s i (i = 1,2,···, c;s = 1,2,···,n) x s 式中: 为 i 的表示系数, 那么式 (1) 可以重写为式 (2) 的简单形式: y = Xα (2) α = [α1 1α 2 1 ··· α n c ] 式中: T。 在 SRC(l1_ls) 中,为了获得稀疏解,式 (2) 转化 为式 (3) 的最优化问题: αˆ = argmin α ∥y− Xα∥ 2 2 s.t. ∥α∥1 ⩽ τ (3) αˆ = L(α, λ) = argmin α 1 2 ∥y− Xα∥ 2 2 +λ∥α∥1 (4) 式中 λ 和τ都为小值正常数。 |α| = arg min −σ⩽α⩽σ 由于 σ(其中σ为适当的正常数), 则式 (4) 可变化为 αˆ = arg min α,σ∈ℜN 1 2 ∥y− Xα∥ 2 2 +λ ∑N i=1 σi s.t. −σi ⩽ αi ⩽ σi (5) α 再根据平切牛顿法[13]来求解式 (5) 即可得到稀 疏解 。 在 CRC 方法中是根据 l2 范数来求解式 (2) 的 表示解的,所以式 (2) 可转化为式 (6) 所示的最优化 问题: αˆ = L(α, λ) = argmin α 1 2 ∥y− Xα∥ 2 2 +λ∥α∥ 2 2 (6) 然后求解表示系数矩阵 α 如下: α = (X TX+λI) −1X T y (7) 式中 I ∈ ℜN×N为单位矩阵。 SRC(l1_ls) 和 CRC 方法在求解得到表示系数之 后,分别计算测试样本和每类由训练样本和其表示 系数构成的重构图像之间的残差: ri = ∥y− Xiαi∥ (8) αi = [α 1 i α 2 i ··· α n i ] 式中 T。若 rk = minri(k,i = 1,2,···, c) (9) 那么测试样本 y 就被分类到第 k 类。 LRC 方法是用每一类训练样本表示测试样本: y = Xiαi (10) 求解式 (10) 得到表示系数为 αi = (X T i Xi) −1X T i y (11) 最后再按照式 (8) 和式 (9) 分类测试样本。 2 基于联合表示的图像分类方法 基于联合表示的图像分类方法主要包含两个步 第 2 期 马忠丽,等:一种基于联合表示的图像分类方法 ·221·
·222· 智能系统学报 第13卷 骤:1)利用原始样本得到其对应的虚拟样本;2)联3基于联合表示的图像分类方法分析 合原始样本和其对应的虚拟样本进行分类。 2.1虚拟样本的产生 在图像分类中,可以利用所有图像像素的子集 令I表示原始灰度图像,1表示I的第i行第 代表图像的主要特征来进行图像分类6。通常一 j列的像素强度;ⅴ表示一幅灰度图像中像素最大 幅图像的重要特征主要集中在中等强度像素区域四 值,那么对于通常的灰度图像则有v=255。由原始 基于联合表示的图像分类方法正是基于上述思想进 样本得到虚拟样本的像素表达式如下: 行图像分类。 J=(v-1)*1+l (12) 3.1方法原理对比分析 式中:J表示得到的虚拟样本J的第i行第j列的像 3.1.1方法特点分析 素强度。由于得到的J,远大于v,因而在计算得到 1)由(12)式得出的结论中可知,在得到的新 J之后对其采取规范化措施,使其值范围处于灰度 的表示(虚拟样本)中,中等强度像素区域将会增 图像的像素范围内。从得到虚拟图像的定义知: 加:除了边缘区域之外,拥有非常大或小的像素区 1)如果1,很大,那么不论I+y的值是大还是 域在虚拟样本中的值相对较小。 小,计算得到的J都会很小; 2)由原始样本得到虚拟样本的过程是一个非 2)如果I,很小,那么Jg的值将会随着I:y的 线性变换过程。相比于通过线性变换得到的虚拟 值得变化而变化:而且当Ig与I+y相差非常大时, 样本,由非线性变换得到的虚拟样本与其对应的原 J会很大,这时将会突出显示图像边缘信息; 始样本有更多的互补性,即原始样本和其虚拟样本 3)如果I,的值为中等大小,那么不论I+w的值 合在一起比它们之中任何一个单独所包含的信息都 是大还是小,计算得到的J的值也将会是中等大小。 要多。 2.2原始样本和虚拟样本的联合表示 3)基于原始样本和虚拟样本的联合表示来完 在得到虚拟样本之后,将表示分类方法分别应 成图像分类时,可以通过式(14)中融合系数a的设 用到原始样本和虚拟样本上,然后分别计算得到它 置调整原始样本和虚拟样本的分类结果的可靠性。 们的测试样本和重构样本之间的残差。 如:α值的设置较大时,原始样本的分类结果比虚拟 假设j=1,2,…,c)为原始测试样本y与第j类 样本的分类结果要可靠。 的原始重构样本之间的残差;j=1,2,…,c)为虚拟 由于联合表示的方法是先通过产生虚拟样本, 测试样本y,与第j类的虚拟重构样本之间的残差, 再联合虚拟样本与原始样本进行表示目标图像的, 即有: 显然,联合表示的方法在算法的时间复杂度上和稀 g=心y-X,l,=y.-Ja (13) 疏表示的复杂度相同,只是重复计算了图像的残差 式中:α为第i类的虚拟样本的表示系数。然后再 表示结果,因而使得计算时间比原始稀疏表示长。 按照式(14)基于和的权重将它们联合起来: 3.1.2方法合理性分析 r=axr+(1-a)xr (14) 以ORL数据库1I为例进行方法合理性分析。 式中:j=1,2,,c)表示最终的联合残差;a是联合 ORL数据库包含来自40个人的总共400张图像, 权重系数且aS(0,1)。 其中每个人均有10张不同的图像。数据库的所有 最后再将按照式(9)来进行最终的分类。方 图像均在不同时间、不同光照以及不同表情和细节 法的主要步骤如下: (比如戴眼镜和不戴眼镜)下采集。图像大小均为 1)将数据库分为两个子集,即训练样本子集、 92×112。图1中,第1行是ORL数据库中第1类 测试样本子集; 图像的原始图像:第2行是采用本文方法得到的对 2)由式(12)计算得到两个子集中所有原始样 应第1行的虚拟图像:第3行采用文献[2]方法得到 本对应的虚拟样本,并将所有样本转换为单位列 的对应第1行的虚拟图像。 向量: 由图1中图像可以看出,虽然虚拟图像与原始 3)表示分类方法分别应用到原始样本和虚拟 图像直接相关,但是它们之间存在明显区别:本文 样本中求得表示系数后,按照式(13)分别得到对应 方法得到的虚拟图像比原始图像对于光照细节的敏 的r和r: 感度低,且在虚拟似图像重要特征处(示例中的是眼 4)由式(14)得到最后的联合表示残差: 晴和嘴巴等)比原始图像明显,而利用文献2]方法 5)由式(9)将测试样本分类到具有最小残差的 得到的虚拟图像则更多地反映出光照信息,且在图 类别。 像重要特征处的标示显示的不明显。由于原始图像
骤:1) 利用原始样本得到其对应的虚拟样本;2) 联 合原始样本和其对应的虚拟样本进行分类。 2.1 虚拟样本的产生 v = 255 令 I 表示原始灰度图像,Iij 表示 I 的第 i 行第 j 列的像素强度;v 表示一幅灰度图像中像素最大 值,那么对于通常的灰度图像则有 。由原始 样本得到虚拟样本的像素表达式如下: Jij = (v− Iij) ∗ I(i+1)j (12) 式中:Jij 表示得到的虚拟样本 J 的第 i 行第 j 列的像 素强度。由于得到的 Jij 远大于 v,因而在计算得到 Jij 之后对其采取规范化措施,使其值范围处于灰度 图像的像素范围内。从得到虚拟图像的定义知: 1) 如果 Iij 很大,那么不论 I(i+1)j 的值是大还是 小,计算得到的 Jij 都会很小; 2) 如果 Iij 很小,那么 Jij 的值将会随着 I(i+1)j 的 值得变化而变化;而且当 Iij 与 I(i+1)j 相差非常大时, Jij 会很大,这时将会突出显示图像边缘信息; 3) 如果 Iij 的值为中等大小,那么不论 I(i+1)j 的值 是大还是小,计算得到的 Jij 的值也将会是中等大小。 2.2 原始样本和虚拟样本的联合表示 在得到虚拟样本之后,将表示分类方法分别应 用到原始样本和虚拟样本上,然后分别计算得到它 们的测试样本和重构样本之间的残差。 r j o(j = 1,2,···, c) r j v(j = 1,2,··· , c) yv 假设 为原始测试样本 y 与第 j 类 的原始重构样本之间的残差; 为虚拟 测试样本 与第 j 类的虚拟重构样本之间的残差, 即有: r j o = ∥y− Xiαi∥,r j v = yv − Jiα v i (13) α v i r j o r j v 式中: 为第 i 类的虚拟样本的表示系数。然后再 按照式 (14) 基于 和 的权重将它们联合起来: r j z = a×r j o +(1−a)×r j v (14) r j z(j = 1,2,···, c) a ⊆ (0,1) 式中: 表示最终的联合残差;a 是联合 权重系数且 。 r j 最后再将 z按照式 (9) 来进行最终的分类。方 法的主要步骤如下: 1) 将数据库分为两个子集,即训练样本子集、 测试样本子集; 2) 由式 (12) 计算得到两个子集中所有原始样 本对应的虚拟样本,并将所有样本转换为单位列 向量; r j o r j v 3) 表示分类方法分别应用到原始样本和虚拟 样本中求得表示系数后,按照式 (13) 分别得到对应 的 和 ; 4) 由式 (14) 得到最后的联合表示残差; 5) 由式 (9) 将测试样本分类到具有最小残差的 类别。 3 基于联合表示的图像分类方法分析 在图像分类中,可以利用所有图像像素的子集 代表图像的主要特征来进行图像分类[15-16]。通常一 幅图像的重要特征主要集中在中等强度像素区域[2] , 基于联合表示的图像分类方法正是基于上述思想进 行图像分类。 3.1 方法原理对比分析 3.1.1 方法特点分析 1) 由 (12) 式得出的结论中可知,在得到的新 的表示 (虚拟样本) 中,中等强度像素区域将会增 加;除了边缘区域之外,拥有非常大或小的像素区 域在虚拟样本中的值相对较小。 2) 由原始样本得到虚拟样本的过程是一个非 线性变换过程。相比于通过线性变换得到的虚拟 样本,由非线性变换得到的虚拟样本与其对应的原 始样本有更多的互补性,即原始样本和其虚拟样本 合在一起比它们之中任何一个单独所包含的信息都 要多。 3) 基于原始样本和虚拟样本的联合表示来完 成图像分类时,可以通过式 (14) 中融合系数 a 的设 置调整原始样本和虚拟样本的分类结果的可靠性。 如:a 值的设置较大时,原始样本的分类结果比虚拟 样本的分类结果要可靠。 由于联合表示的方法是先通过产生虚拟样本, 再联合虚拟样本与原始样本进行表示目标图像的, 显然,联合表示的方法在算法的时间复杂度上和稀 疏表示的复杂度相同,只是重复计算了图像的残差 表示结果,因而使得计算时间比原始稀疏表示长。 3.1.2 方法合理性分析 以 ORL 数据库[17]为例进行方法合理性分析。 ORL 数据库包含来自 40 个人的总共 400 张图像, 其中每个人均有 10 张不同的图像。数据库的所有 图像均在不同时间、不同光照以及不同表情和细节 (比如戴眼镜和不戴眼镜) 下采集。图像大小均为 92×112。图 1 中,第 1 行是 ORL 数据库中第 1 类 图像的原始图像;第 2 行是采用本文方法得到的对 应第 1 行的虚拟图像;第 3 行采用文献[2]方法得到 的对应第 1 行的虚拟图像。 由图 1 中图像可以看出,虽然虚拟图像与原始 图像直接相关,但是它们之间存在明显区别:本文 方法得到的虚拟图像比原始图像对于光照细节的敏 感度低,且在虚拟图像重要特征处 (示例中的是眼 睛和嘴巴等) 比原始图像明显,而利用文献[2]方法 得到的虚拟图像则更多地反映出光照信息,且在图 像重要特征处的标示显示的不明显。由于原始图像 ·222· 智 能 系 统 学 报 第 13 卷
第2期 马忠丽,等:一种基于联合表示的图像分类方法 ·223· 和虚拟图像包含了同一类的不同方面的信息,因而3.2方法分类效果分析 同时使用它们能够得到更好的识别效果。 虽然单独使用原始图像或虚拟图像进行分类可 能得到满意的结果,但若能够将它们联合,识别率 将得到明显提升,这是因为如果一个来自原始图像 的测试图像被分类错误,但其虚拟图像对应的测试 (a)原始图像 样本能够被正确分类,则按照式(14)将两种图像融 合之后,测试样本也能被正确分类,识别率也更高: 同样,当虚拟图像的测试样本分类错误,而其对应 的原始图像的测试样本被正确分类时,按照式(14) (b)利用本文方法得到的虚拟图像 的融合方法也能得到正确的分类结果。以ORL数 据库为例来验证上述分析结果。 图3显示的是不同类别的重构样本与所有测试 样本之间的距离。 (©)利用文献2]方法得到的虚拟图像 1.1 图1原始图像和利用本文方法以及文献2]中方法得到的 WM风 1.0 对应的虚拟图像 这0.9 Fig.1 The original images and their virtual images ob- 盘0.8 。原始的 tained by our method and the method proposed in 0.7 literature [2] 0.6 01020304050607080 ORL数据库中第1类的第1幅原始图像以及 测试样本号 使用本文方法和文献[2]方法得到的其虚拟图像的 (a)每类训练样本数为8时的距离 灰度直方图如图2所示。可以看出本文方法得到虚 12 拟图像的过程是一个非线性变换过程。此外,图2(b) 和2(©)显示本文方法得到的虚拟图像的像素强度 8 。一原始的 主要集中在中等强度区域,而文献2]得到的虚拟图 0.4 虑拟的 一联合的 像的像素强度则主要偏向于高等强度区域。这说明 0.2 0 20 40.6080100120 在利用原始图像像素方面,本文方法更为合理。 测试样本号 (b)每类训练样本数为7时的距离 250 图3不同类别的重构样本与所有的测试样本之间的距离 150 Fig.3 The distances between reconstitution samples of dif- 100 50 ferent classes and all test samples 50 100150 200 250 图3(a)是在训练样本数为8,测试样本数为2 像素强度 的情况下得到的:图3(b)是在训练样本数为7,测试 (a)原始图像的灰度直方图 样本数为3的情况下得到的。 600 在图3(a)中,重构图像属于第10类。在原始 400 数据库下,可以明显看到第9个和第10个测试样 200 本(这两个编号的测试样本属于第5类)下的距离 100150 200250 最小,故在原始数据库中,给出的测试样本被识别 像素强度 为第5类,而事实上给出的测试样本属于第10类, (b)本文方法得到的虚拟图像的灰度直方图 所以在原始数据库上分类错误;在虚拟数据库下, 400 第19个和第20个测试样本(这两个编号的测试样 300 本属于第10类)下的距离最小,故在虚拟数据库 200 100 中,给出的测试样本被识别为第10类,则分类正确; 联合方法得到的结果与在虚拟库中得到的结果一 0 50 100150 200 250 像素强度 致,因而最后的分类结果也是正确的。在图3(b) (©)文献[2]中方法得到的虚拟图像的灰度直方图 中,重构图像属于第31类。同理,在原始数据库下, 图2原始图像和用不同方法得到的虚拟图像的灰度直方图 第31类的测试样本被正确分类到第31类;在虚拟 Fig.2 The gray histograms of the original image and vir- 数据库下,测试样本被分类到第30类,分类错误; tual images obtained by using different methods 联合分类方法最后也将测试样本分类到第31类,即
和虚拟图像包含了同一类的不同方面的信息,因而 同时使用它们能够得到更好的识别效果。 (a) 原始图像 (b) ݕ⩔᱘᪳∁ᓃݜ⮰㮆᠋ప (c) ݕ᪳⩔⡚[2]∁ᓃݜ⮰㮆᠋ప 图 1 原始图像和利用本文方法以及文献[2]中方法得到的 对应的虚拟图像 Fig. 1 The original images and their virtual images obtained by our method and the method proposed in literature [2] ORL 数据库中第 1 类的第 1 幅原始图像以及 使用本文方法和文献[2]方法得到的其虚拟图像的 灰度直方图如图 2 所示。可以看出本文方法得到虚 拟图像的过程是一个非线性变换过程。此外,图 2(b) 和 2(c) 显示本文方法得到的虚拟图像的像素强度 主要集中在中等强度区域,而文献[2]得到的虚拟图 像的像素强度则主要偏向于高等强度区域。这说明 在利用原始图像像素方面,本文方法更为合理。 0 50 100 150 200 250 ㉌ᑦᏒ ㉌ᑦᏒ⮰䛻 50 100 150 200 250 (a) ࣋ప▜⮰ᏒⰠప 0 200 400 600 ㉌ᑦᏒ ㉌ᑦᏒ⮰䛻 50 100 150 200 250 (b) ᱘᪳∁ᓃݜ⮰㮆᠋ప▜⮰ᏒⰠప 0 100 200 300 ㉌ᑦᏒ ㉌ᑦᏒ⮰䛻 50 100 150 200 250 (c) ᪳⡚[2]͙∁ᓃݜ⮰㮆᠋ప▜⮰ᏒⰠప 400 图 2 原始图像和用不同方法得到的虚拟图像的灰度直方图 Fig. 2 The gray histograms of the original image and virtual images obtained by using different methods 3.2 方法分类效果分析 虽然单独使用原始图像或虚拟图像进行分类可 能得到满意的结果,但若能够将它们联合,识别率 将得到明显提升,这是因为如果一个来自原始图像 的测试图像被分类错误,但其虚拟图像对应的测试 样本能够被正确分类,则按照式 (14) 将两种图像融 合之后,测试样本也能被正确分类,识别率也更高; 同样,当虚拟图像的测试样本分类错误,而其对应 的原始图像的测试样本被正确分类时,按照式 (14) 的融合方法也能得到正确的分类结果。以 ORL 数 据库为例来验证上述分析结果。 图 3 显示的是不同类别的重构样本与所有测试 样本之间的距离。 0 10 20 30 40 50 60 70 80 0.7 0.8 0.9 1.0 1.1 ≷䄁ᵣ᱘ण 䌉⻧ ⮰࣋ 㮆᠋⮰ 㖀ऴ⮰ 0 20 40 60 80 100 120 0.2 0.4 0.6 0.8 1.0 1.2 ⮰࣋ 㮆᠋⮰ 㖀ऴ⮰ ≷䄁ᵣ᱘ण 䌉⻧ (a) ㆧ䃙㏯ᵣ᱘ͦ8ᬢ⮰䌉⻧ (b) ㆧ䃙㏯ᵣ᱘ͦ7ᬢ⮰䌉⻧ 0.6 图 3 不同类别的重构样本与所有的测试样本之间的距离 Fig. 3 The distances between reconstitution samples of different classes and all test samples 图 3(a) 是在训练样本数为 8,测试样本数为 2 的情况下得到的;图 3(b) 是在训练样本数为 7,测试 样本数为 3 的情况下得到的。 在图 3(a) 中,重构图像属于第 10 类。在原始 数据库下,可以明显看到第 9 个和第 10 个测试样 本 (这两个编号的测试样本属于第 5 类) 下的距离 最小,故在原始数据库中,给出的测试样本被识别 为第 5 类,而事实上给出的测试样本属于第 10 类, 所以在原始数据库上分类错误;在虚拟数据库下, 第 19 个和第 20 个测试样本 (这两个编号的测试样 本属于第 10 类) 下的距离最小,故在虚拟数据库 中,给出的测试样本被识别为第 10 类,则分类正确; 联合方法得到的结果与在虚拟库中得到的结果一 致,因而最后的分类结果也是正确的。在图 3(b) 中,重构图像属于第 31 类。同理,在原始数据库下, 第 31 类的测试样本被正确分类到第 31 类;在虚拟 数据库下,测试样本被分类到第 30 类,分类错误; 联合分类方法最后也将测试样本分类到第 31 类,即 第 2 期 马忠丽,等:一种基于联合表示的图像分类方法 ·223·
·224· 智能系统学报 第13卷 最后的结果也是正确的。 练样本,剩下的样本作为测试样本,且对于CRC、 上述结果均表明,联合使用原始样本与虚拟样 SRC(I,ls)和LRC3种分类方法均设置a=0.7,其实 本一起来进行分类,比使用单一样本能够获得更好 验结果如表1所示。在表格中,L2M表示文献[2]中 的分类结果。 提出的方法,下同。 表1OL数据库上的不同方法的识别率 4实验研究 Table 1 The classification rates of different methods on the ORL database % 为验证联合表示方法的优良性能,分别在OL 每类训练样本数 数据库、FERET数据库1I、COIL-20数据库]和 算法 3 4 5 C0L-100数据库20上进行测试,所结合的表示方法 为CRC、SRC(IIs)和LRC算法,对比方法为文献 原始样本+CRC 87.74±0.83 93.00±0.75 94.42±0.92 [2]所提出的方法。 虚拟样本CRC 85.8942.03 91.17±2.16 92.25±2.25 FERET数据库包含超过200人的图像样本,本 L2M+CRC 88.93 92.92 93.50 文实验中选取其中200个人的总计1400张图像样 本文方法+CRC 89.82±0.89 94.58±0.84 95.67±0.83 本,其中每个人有7张不同的图像。数据库分别在 原始样本+LRC 87.93±0.64 94.58±0.25 95.50±1.00 不同光照和表情条件下,在相对正面人脸的±15° 虚拟样本+LRC 85.57±1.14 93.86±1.97 95.00±2.00 ±25°的条件下采集得到,图像的大小均为40×40: L2M+LRC 88.93 91.67 95.00 C0L-20数据库包含20个不同类别的物体图像,每 类物体每隔5°采集一幅图像,每类物体包含72幅 本文方法+LRC 88.50±0.7995.52±1.15 96.50±1.00 图像,整个数据库包含1440张标准灰度图像。本 原始样本+1s 88.93±0.3691.88±1.45 94.25±1.25 文实验中挑选每类样本中的18幅图像共360幅图 虚拟样本+l1s 87.12±1.02 90.52±0.29 93.38±1.62 像,图像大小均为128×128;C0IL-100数据库和 L2M+/Is 88.93 92.50 94.00 C0L-20数据库类似,其中包含100个不同类别的 本文方法+111s90.71±1.5092.82±1.3595.50±0.50 物体的图像,本文实验中选择方式同COL-20数据 库,图像大小均为128×128。图4分别以这4种数 对FERET数据库,每类分别选取2~4个图像 据库中的一类图像作为代表展示了它们的特点。 作为训练样本,每类剩下的样本作为测试样本,且 对于CRC、SRC(I,Is)和LRC3种分类方法均设置 a=0.7,其实验结果如表2所示。 表2 FERET数据库上的不同算法的识别率 Table 2 The classification rates of different methods on (a)ORL数据库 the FERET database jo 每类训练样本数 算法 3 (b)FERET数据库 原始样本+CRC 50.30±2.60 69.87±1.75 69.87±0.26 虚拟样本+CRC 51.65±1.75 67.94±1.28 64.45±1.78 L2M+CRC 62.00 49.50 56.17 (c)C0L-20数据库 本文方法+CRC 55.13±1.77 73.65±1.2874.34±0.83 原始样本+LRC 63.55±2.05 72.29±1.5877.67±1.33 虚拟样本+LRC 56.18±3.18 64.12±0.5073.67±3.00 (d)COL-100数据库 L2M+LRC 63.70 58.75 78.00 图4种不同数据库中的原始图像 本文方法+LRC 64.50±2.10 73.25±1.62 78.67±1.16 Fig.4 The original images of the different four databases 原始样本+ls 47.830.77 52.29±1.48 65.11±1.78 在本实验中,对所有的数据库,联合表示方法 虚拟样本+1s 47.00±1.1051.67±1.47 63.66±0.83 在每类中均随机挑选若干样本作为训练样本,剩下 L2M+/_Is 51.50 53.13 70.17 的为测试样本,重复10次再取均值作为最终结果。 对ORL数据库,每类分别选取3~5个样本作为训 本文方法+Hls 50.17±1.1353.97±1.9067.83±2.00
最后的结果也是正确的。 上述结果均表明,联合使用原始样本与虚拟样 本一起来进行分类,比使用单一样本能够获得更好 的分类结果。 4 实验研究 为验证联合表示方法的优良性能,分别在 ORL 数据库、FERET 数据库[18] 、COIL-20 数据库[19]和 COIL-100 数据库[20]上进行测试,所结合的表示方法 为 CRC、SRC(l1_ls) 和 LRC 算法,对比方法为文献 [2]所提出的方法。 FERET 数据库包含超过 200 人的图像样本,本 文实验中选取其中 200 个人的总计 1 400 张图像样 本,其中每个人有 7 张不同的图像。数据库分别在 不同光照和表情条件下,在相对正面人脸的±15°、 ±25°的条件下采集得到,图像的大小均为 40×40; COIL-20 数据库包含 20 个不同类别的物体图像,每 类物体每隔 5°采集一幅图像,每类物体包含 72 幅 图像,整个数据库包含 1 440 张标准灰度图像。本 文实验中挑选每类样本中的 18 幅图像共 360 幅图 像,图像大小均为 128×128;COIL-100 数据库和 COIL-20 数据库类似,其中包含 100 个不同类别的 物体的图像,本文实验中选择方式同 COIL-20 数据 库,图像大小均为 128×128。图 4 分别以这 4 种数 据库中的一类图像作为代表展示了它们的特点。 (a) ORL ᢚᎿ (b) FERET ᢚᎿ (c) COIL-20 ᢚᎿ (d) COIL-100 ᢚᎿ 图 4 种不同数据库中的原始图像 Fig. 4 The original images of the different four databases 在本实验中,对所有的数据库,联合表示方法 在每类中均随机挑选若干样本作为训练样本,剩下 的为测试样本,重复 10 次再取均值作为最终结果。 对 ORL 数据库,每类分别选取 3~5 个样本作为训 a = 0.7 练样本,剩下的样本作为测试样本,且对于 CRC、 SRC(l1_ls) 和 LRC 3 种分类方法均设置 ,其实 验结果如表 1 所示。在表格中,L2M 表示文献[2]中 提出的方法,下同。 表 1 ORL 数据库上的不同方法的识别率 Table 1 The classification rates of different methods on the ORL database % 算法 每类训练样本数 3 4 5 原始样本+CRC 87.74±0.83 93.00±0.75 94.42±0.92 虚拟样本+CRC 85.89±2.03 91.17±2.16 92.25±2.25 L2M+CRC 88.93 92.92 93.50 本文方法+CRC 89.82±0.89 94.58±0.84 95.67±0.83 原始样本+LRC 87.93±0.64 94.58±0.25 95.50±1.00 虚拟样本+LRC 85.57±1.14 93.86±1.97 95.00±2.00 L2M +LRC 88.93 91.67 95.00 本文方法+LRC 88.50±0.79 95.52±1.15 96.50±1.00 原始样本+l1_ls 88.93±0.36 91.88±1.45 94.25±1.25 虚拟样本+l1_ls 87.12±1.02 90.52±0.29 93.38±1.62 L2M +l1_ls 88.93 92.50 94.00 本文方法+l1_ls 90.71±1.50 92.82±1.35 95.50±0.50 a = 0.7 对 FERET 数据库,每类分别选取 2~4 个图像 作为训练样本,每类剩下的样本作为测试样本,且 对于 CRC、SRC(l1_ls) 和 LRC 3 种分类方法均设置 ,其实验结果如表 2 所示。 表 2 FERET 数据库上的不同算法的识别率 Table 2 The classification rates of different methods on the FERET database % 算法 每类训练样本数 2 3 4 原始样本+CRC 50.30±2.60 69.87±1.75 69.87±0.26 虚拟样本+CRC 51.65±1.75 67.94±1.28 64.45±1.78 L2M +CRC 62.00 49.50 56.17 本文方法+CRC 55.13±1.77 73.65±1.28 74.34±0.83 原始样本+LRC 63.55±2.05 72.29±1.58 77.67±1.33 虚拟样本+LRC 56.18±3.18 64.12±0.50 73.67±3.00 L2M +LRC 63.70 58.75 78.00 本文方法+LRC 64.50±2.10 73.25±1.62 78.67±1.16 原始样本+l1_ls 47.83±0.77 52.29±1.48 65.11±1.78 虚拟样本+l1_ls 47.00±1.10 51.67±1.47 63.66±0.83 L2M +l1_ls 51.50 53.13 70.17 本文方法+l1_ls 50.17±1.13 53.97±1.90 67.83±2.00 ·224· 智 能 系 统 学 报 第 13 卷
第2期 马忠丽,等:一种基于联合表示的图像分类方法 ·225· 对于COIL-20数据库,每类分别选取7~9个 在文献[2]的方法中,使用常规方式选取训练样 样本作为训练样本,每类剩下的样本作为测试样 本,即选取每类样本中编号的前若干个样本作为训 本,且对于CRC分类算法设置a=0.3,而对于 练样本,剩下的则作为测试样本,则对于每一种训 SRC(l,ls)和LRC分类算法均设置a=0.7,其实验 练样本,利用文献2]中方法得出的实验结果只有一 结果如表3所示。 个。从表1~4可以看出,本文方法与CRC方法、LRC 表3COL-20数据库上的不同算法的识别率 方法和SRC(I1s)方法结合之后,其分类正确率有 Table 3 The classification rates of different methods on 明显提升。例如,对于OL数据库,当每类的训练 the COIL-20 database % 样本数为4时,单纯使用CRC算法进行分类得到的 每类训练样本数 算法 平均识别率为93.00%,而本文方法与CRC算法结 > 8 9 合后进行分类,其平均识别率提升到为94.58%:对 原始样本+CRC 82.99±1.568158±108 85.83±0.84 于FERET数据库,当每类的训练样本数为4时,单 虚拟样本+CRC 86.56±2.47 82.50±2.08 87.59±1.48 纯使用LRC方法分类得到的平均识别率为77.67%, L2M +CRC 85.45 84.50 84.44 而本文方法与LRC结合后进行分类时,其平均识别 本文方法+CRC 88.36±0.65 85.83±0.83 89.82±0.74 原始样本+LRC 率提高到78.67%;对于C0IL-100数据库,当每类 89.48±1.43 93.00±1.00 95.84±0.83 虚拟样本+LRC 的训练样本数为5时,单纯使用SRC(Us)方法进 87.66±2.66 90.90±1.40 94.36±1.58 L2M+LRC 行分类平均识别率为54.77%,本文方法与SRC(l,s) 91.36 92.00 91.11 本文方法+LRC 方法结合后进行分类时,其平均识别率提升到为 90.45±1.82 93.70±0.80 96.45±0.67 原始样本+1_s 85.57±1.70 86.75±0.25 56.28%。另外,相比于同样是使用虚拟样本的文献2] 87.00±1.33 虚拟样本+l_s 83.52±0.79 83.50±0.5088.70±2.59 的方法而言,在训练样本数相同的情况下,除了少 L2M+/Is 85.00 84.00 83.89 数情况以外,本文方法得到的识别率都比其高。这 本文方法+Hs 88.30±1.7088.75±0.25 92.22±1.11 些都充分说明了本文方法对于提升表示分类方法识 别率具有优良性能。 对于COL-100数据库,每类分别选取5~7个 图像作为训练样本,每类剩下的样本作为测试样 5结束语 本,且对于CRC分类算法设置a=0.3,而对于 SRC(l1ls)和LRC分类算法均设置a=0.7,其实验 针对图像分类问题中的光照和小样本问题,提 结果如表4所示。 出了一种新的图像分类表示方法。这种方法能通过 联合原始样本和虚拟样本的信息来提升分类性能。 表4C0ⅡL-100数据库上的不同算法的识别率 Table 4 The classification rates of different methods on 这里得到的虚拟图像不仅能够有效地利用原始图像 the COIL-100 database % 中相邻像素之间的信息,突出显示目标的重要特 每类训练样本数 征,且其对于光照信息不敏感。另外,由于同时利 算法 6 7 用了原始样本和虚拟样本,因而,其在增加训练样 本个数,减小由小样本问题带来的影响方面也有帮 原始样本+CRC 55.54±0.61 55.95±1.55 61.00±0.73 助。本文方法还通过与其他表示分类方法相结合来 虚拟样本+CRC 56.83±1.17 57.63±0.96 62.38±1.65 提升该方法的分类效果。本文的方法的不足之处在 L2M +CRC 55.54 53.50 52.55 于,不能自适应地选取联合系数,因此,下一阶段的 本文方法+CRC 57.40±0.83 58.65±1.60 63.34±0.98 工作就是找到一种方法,能够自适应地选取联合系 原始样本+LRC 74.03±1.12 75.58±1.16 83.89±0.80 数来进行分类。 虚拟样本+LRC 68.26±0.97 69.05±2.27 77.78±0.95 参考文献: L2M+LRC 68.92 68.75 69.18 本文方法+LRC [1]CHEN Jie,SHAN Shiguang,HE Chu,et al.WLD:a robust 74.57±1.05 75.97±1.05 84.27±0.82 local image descriptor[J].IEEE transactions on pattern ana- 原始样本+ls 54.77±1.00 61.44±1.56 62.67±2.49 lysis and machine intelligence,2010,32(9):1705-1720. 虚拟样本+h_s 54.77±0.69 59.44±1.44 61.82±1.09 [2]XU Yong,ZHANG B,ZHONG Zuofeng.Multiple repres- L2M+/Is 56.62 56.08 55.27 entations and sparse representation for image classification 本文方法+Hs [J].Pattern recognition letters,2015,68:9-14. 56.28±0.59 62.14±0.99 63.63±1.72 「3】祝志远,张庆辉.基于视觉感知的人体轮廓捕获及自动调
a = 0.3 a = 0.7 对于 COIL-20 数据库,每类分别选取 7~9 个 样本作为训练样本,每类剩下的样本作为测试样 本,且对于 C RC 分类算法设置 ,而对于 SRC(l1_ls) 和 LRC 分类算法均设置 ,其实验 结果如表 3 所示。 表 3 COIL-20 数据库上的不同算法的识别率 Table 3 The classification rates of different methods on the COIL-20 database % 算法 每类训练样本数 7 8 9 原始样本+CRC 82.99±1.56 81.58±1.08 85.83±0.84 虚拟样本+CRC 86.56±2.47 82.50±2.08 87.59±1.48 L2M +CRC 85.45 84.50 84.44 本文方法+CRC 88.36±0.65 85.83±0.83 89.82±0.74 原始样本+LRC 89.48±1.43 93.00±1.00 95.84±0.83 虚拟样本+LRC 87.66±2.66 90.90±1.40 94.36±1.58 L2M +LRC 91.36 92.00 91.11 本文方法+LRC 90.45±1.82 93.70±0.80 96.45±0.67 原始样本+l1_ls 85.57±1.70 86.75±0.25 87.00±1.33 虚拟样本+l1_ls 83.52±0.79 83.50±0.50 88.70±2.59 L2M +l1_ls 85.00 84.00 83.89 本文方法+l1_ls 88.30±1.70 88.75±0.25 92.22±1.11 a = 0.3 a = 0.7 对于 COIL-100 数据库,每类分别选取 5~7 个 图像作为训练样本,每类剩下的样本作为测试样 本,且对于 C RC 分类算法设置 ,而对于 SRC(l1_ls) 和 LRC 分类算法均设置 ,其实验 结果如表 4 所示。 表 4 COIL-100 数据库上的不同算法的识别率 Table 4 The classification rates of different methods on the COIL-100 database % 算法 每类训练样本数 5 6 7 原始样本+CRC 55.54±0.61 55.95±1.55 61.00±0.73 虚拟样本+CRC 56.83±1.17 57.63±0.96 62.38±1.65 L2M +CRC 55.54 53.50 52.55 本文方法+CRC 57.40±0.83 58.65±1.60 63.34±0.98 原始样本+LRC 74.03±1.12 75.58±1.16 83.89±0.80 虚拟样本+LRC 68.26±0.97 69.05±2.27 77.78±0.95 L2M +LRC 68.92 68.75 69.18 本文方法+LRC 74.57±1.05 75.97±1.05 84.27±0.82 原始样本+l1_ls 54.77±1.00 61.44±1.56 62.67±2.49 虚拟样本+l1_ls 54.77±0.69 59.44±1.44 61.82±1.09 L2M +l1_ls 56.62 56.08 55.27 本文方法+l1_ls 56.28±0.59 62.14±0.99 63.63±1.72 在文献[2]的方法中,使用常规方式选取训练样 本,即选取每类样本中编号的前若干个样本作为训 练样本,剩下的则作为测试样本,则对于每一种训 练样本,利用文献[2]中方法得出的实验结果只有一 个。从表 1~4 可以看出,本文方法与 CRC 方法、LRC 方法和 SRC(l1_ls) 方法结合之后,其分类正确率有 明显提升。例如,对于 ORL 数据库,当每类的训练 样本数为 4 时,单纯使用 CRC 算法进行分类得到的 平均识别率为 93.00%,而本文方法与 CRC 算法结 合后进行分类,其平均识别率提升到为 94.58%;对 于 FERET 数据库,当每类的训练样本数为 4 时,单 纯使用 LRC 方法分类得到的平均识别率为 77.67%, 而本文方法与 LRC 结合后进行分类时,其平均识别 率提高到 78.67%;对于 COIL-100 数据库,当每类 的训练样本数为 5 时,单纯使用 SRC(l1_ls) 方法进 行分类平均识别率为 54.77%,本文方法与 SRC(l1_ls) 方法结合后进行分类时,其平均识别率提升到为 56.28%。另外,相比于同样是使用虚拟样本的文献[2] 的方法而言,在训练样本数相同的情况下,除了少 数情况以外,本文方法得到的识别率都比其高。这 些都充分说明了本文方法对于提升表示分类方法识 别率具有优良性能。 5 结束语 针对图像分类问题中的光照和小样本问题,提 出了一种新的图像分类表示方法。这种方法能通过 联合原始样本和虚拟样本的信息来提升分类性能。 这里得到的虚拟图像不仅能够有效地利用原始图像 中相邻像素之间的信息,突出显示目标的重要特 征,且其对于光照信息不敏感。另外,由于同时利 用了原始样本和虚拟样本,因而,其在增加训练样 本个数,减小由小样本问题带来的影响方面也有帮 助。本文方法还通过与其他表示分类方法相结合来 提升该方法的分类效果。本文的方法的不足之处在 于,不能自适应地选取联合系数,因此,下一阶段的 工作就是找到一种方法,能够自适应地选取联合系 数来进行分类。 参考文献: CHEN Jie, SHAN Shiguang, HE Chu, et al. WLD: a robust local image descriptor[J]. IEEE transactions on pattern analysis and machine intelligence, 2010, 32(9): 1705–1720. [1] XU Yong, ZHANG B, ZHONG Zuofeng. Multiple representations and sparse representation for image classification [J]. Pattern recognition letters, 2015, 68: 9–14. [2] [3] 祝志远, 张庆辉. 基于视觉感知的人体轮廓捕获及自动调 第 2 期 马忠丽,等:一种基于联合表示的图像分类方法 ·225·
·226· 智能系统学报 第13卷 焦.应用科技,2016,6(2少:50-53. truncated primal-infeasible dual-feasible network interior ZHU Zhiyuan,ZHANG Qinghui.An auto focus method for point method[J].Networks,2000,35(2):91-108. capturing body contours based on visual perception[J].Ap- [15]SMIELIK I,KUHNERT K D.Statistical dependence of plied science and technology,2016,6(2):50-53. pixel intensities for pattern recognition[C]//IEEE Interna- [4]JIAN M,LAM K M,DONG J.Illumination compensation tional Conference on Industrial Technology.Cape Town, and enhancement for face recognition[C]//Proceedings of South Africa:IEEE,2013:1179-1183. Asia-Pacific Signal and Information Processing Associ- [16]吴鹏,徐洪玲,宋文龙.结合小波金字塔的快速NCC图 ation Annual Summit and Conference.Xi'an:APSIPA. 像匹配算法[J.哈尔滨工程大学学报,2017,5(38): 2011. 791-796. [5]HUANG Wei,WANG Xiaohui,MA Yanbo,et al.Robust WU Peng,XU Hongling,SONG Wenlong.A fast NCC im- kernel collaborative representation for face recognition[J]. age matching algorithm based on wavelet pyramid search Optical engineering,2015,54(5):53103. strategy[J].Joural of harbin engineering university,2017, [6]XU Yong,LI Xuelong,YANG Jian,et al.Integrate the ori- 5(38):791-796. ginal face image and its mirror image for face recognition[J]. [17]SAMARIA F S,HARTER A C.Parameterisation of a Neurocomputing,2014,131:191-199. stochastic model for human face identification[C]//Pro- [7]PAYNE T,NICELY M C.Non-rectangular and/or non-or- ceedings of 1994 IEEE Workshop on Applications of Com- thogonal arrangement of gambling elements in a gaming ap- puter Vision.Sarasota,FL:IEEE,1994:138-142. paratus[P].US:US6241607,2001. [18]PHILLIPS P J,MOON H,RIZVI S A,et al.The FERET 8]MA Zhongli,LIU Quanyong,HAO Liangliang.Multiple evaluation methodology for face-recognition algorithms[J]. collaborative representations for face recognition[C]//Pro- IEEE transactions on pattern analysis and machine intelli- ceedings of 2016 IEEE International Conference on Mechat- gence,.2000,22(10y:1090-1104. ronics and Automation.Harbin,China:2016:1655-1660. [19]NENE S A,NAYAR S K,MURASE H.Columbia object [9]XU Yong,ZHANG D,YANG Jian,et al.A two-phase test image library (COIL-20),CUCS-005-96[R].2011. sample sparse representation method for use with face re- [20]NENE S A,NAYAR S K,MURASE H.Columbia object cognition[J].IEEE transactions on circuits and systems for image library (COIL-100),CUCS-006-96[R].Columbia: video technology,2011,21(9):1255-1262. Columbia University,1996. [10]ZHANG Lei,YANG Meng,FENG Xiangchun.Sparse rep- resentation or collaborative representation:which helps 作者简介: face recognition?[C]//Proceedings of 2011 International 马忠丽,女,1974年生,副教授 Conference on Computer Vision.Barcelona,Spain:IEEE, 博士,主要研究方向为机器视觉、模式 2011:471-478 识别与机器人技术。主持和参与完成 国家自然科学基金项目、黑龙江省自 [11]NASEEM I,TOGNERI R.BENNAMOUN M.Robust re- 然科学基金项目多项,发表学术论文 gression for face recognition[J].Pattern recognition,2012. 20余篇。 45(1)104118 [12]WRIGHT J,MA Yi,MAIRAL J,et al.Sparse representa- 刘权勇,男,1990年生,硕士研究 tion for computer vision and pattern recognition[J].Pro- 生,主要研究方向为图像分类和人脸识别。 ceedings of the IEEE,2010,98(6):1031-1044. [13]KOH K,KIM S J,BOYD S.An interior-point method for large-scale 11-regularized logistic regression[J].The journ- al of machine learning research,2007,8:1519-1555. [14]PORTUGAL L F,RESENDE M G C,VEIGA G,et al.A
焦[J]. 应用科技, 2016, 6(2): 50–53. ZHU Zhiyuan, ZHANG Qinghui. An auto focus method for capturing body contours based on visual perception[J]. Applied science and technology, 2016, 6(2): 50–53. JIAN M, LAM K M, DONG J. Illumination compensation and enhancement for face recognition[C]//Proceedings of Asia—Pacific Signal and Information Processing Association Annual Summit and Conference. Xi’an: APSIPA, 2011. [4] HUANG Wei, WANG Xiaohui, MA Yanbo, et al. Robust kernel collaborative representation for face recognition[J]. Optical engineering, 2015, 54(5): 53103. [5] XU Yong, LI Xuelong, YANG Jian, et al. Integrate the original face image and its mirror image for face recognition[J]. Neurocomputing, 2014, 131: 191–199. [6] PAYNE T, NICELY M C. Non-rectangular and/or non-orthogonal arrangement of gambling elements in a gaming apparatus[P]. US: US6241607, 2001. [7] MA Zhongli, LIU Quanyong, HAO Liangliang. Multiple collaborative representations for face recognition[C]//Proceedings of 2016 IEEE International Conference on Mechatronics and Automation. Harbin, China: 2016: 1655–1660. [8] XU Yong, ZHANG D, YANG Jian, et al. A two-phase test sample sparse representation method for use with face recognition[J]. IEEE transactions on circuits and systems for video technology, 2011, 21(9): 1255–1262. [9] ZHANG Lei, YANG Meng, FENG Xiangchun. Sparse representation or collaborative representation: which helps face recognition?[C]//Proceedings of 2011 International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011: 471–478. [10] NASEEM I, TOGNERI R, BENNAMOUN M. Robust regression for face recognition[J]. Pattern recognition, 2012, 45(1): 104–118. [11] WRIGHT J, MA Yi, MAIRAL J, et al. Sparse representation for computer vision and pattern recognition[J]. Proceedings of the IEEE, 2010, 98(6): 1031–1044. [12] KOH K, KIM S J, BOYD S. An interior-point method for large-scale l1-regularized logistic regression[J]. The journal of machine learning research, 2007, 8: 1519–1555. [13] [14] PORTUGAL L F, RESENDE M G C, VEIGA G, et al. A truncated primal-infeasible dual-feasible network interior point method[J]. Networks, 2000, 35(2): 91–108. SMIELIK I, KUHNERT K D. Statistical dependence of pixel intensities for pattern recognition[C]//IEEE International Conference on Industrial Technology. Cape Town, South Africa: IEEE, 2013: 1179–1183. [15] 吴鹏, 徐洪玲, 宋文龙. 结合小波金字塔的快速 NCC 图 像匹配算法[J]. 哈尔滨工程大学学报, 2017, 5(38): 791–796. WU Peng, XU Hongling, SONG Wenlong. A fast NCC image matching algorithm based on wavelet pyramid search strategy[J]. Journal of harbin engineering university, 2017, 5(38): 791–796. [16] SAMARIA F S, HARTER A C. Parameterisation of a stochastic model for human face identification[C]//Proceedings of 1994 IEEE Workshop on Applications of Computer Vision. Sarasota, FL: IEEE, 1994: 138–142. [17] PHILLIPS P J, MOON H, RIZVI S A, et al. The FERET evaluation methodology for face-recognition algorithms[J]. IEEE transactions on pattern analysis and machine intelligence, 2000, 22(10): 1090–1104. [18] NENE S A, NAYAR S K, MURASE H. Columbia object image library (COIL-20), CUCS-005-96[R]. 2011. [19] NENE S A, NAYAR S K, MURASE H. Columbia object image library (COIL-100), CUCS-006-96[R]. Columbia: Columbia University, 1996. [20] 作者简介: 马忠丽,女,1974 年生,副教授, 博士,主要研究方向为机器视觉、模式 识别与机器人技术。主持和参与完成 国家自然科学基金项目、黑龙江省自 然科学基金项目多项,发表学术论文 20 余篇。 刘权勇,男,1990 年生,硕士研究 生,主要研究方向为图像分类和人脸识别。 ·226· 智 能 系 统 学 报 第 13 卷