第13卷第6期 智能系统学报 Vol.13 No.6 2018年12月 CAAI Transactions on Intelligent Systems Dec.2018 D0:10.11992/tis.201801009 网络出版地址:http:/kns.cnki.net/kcms/detail/23.1538.TP.20180412.1148.008.html 基于Object Proposals并集的显著性检测模型 赵闰霞,蹇木伟2,齐强,王静,王瑞红,董军宇 (1.中国海洋大学信息科学与工程学院,山东青岛266000:2.山东财经大学计算机科学与技术学院,山东 济南250014) 摘要:针对当前常见的显著性检测模型得到的结果会包含大量的背景区域的缺点,本文提出了基于Object Proposals并集的显著性检测模型。该模型首先对于输入图片生成一系列Object Proposals,.并通过其并集计算得 到背景图:然后结合纹理特征和全局对比度得到初始显著图:最后,用得到的背景图对初始显著图进行背景抑 制得到最终显著图。实验结果表明,在通用MSRA1O00数据集上,本文提出的显著性模型与其他5种方法相比 取得了很好的效果。 关键词:显著性检测;object proposal;超像素;纹理;背景图;全局对比度;边界连通性;自底向上 中图分类号:TP391文献标志码:A文章编号:1673-4785(2018)06-0946-06 中文引用格式:赵闰霞,蹇木伟,齐强,等.基于0 bject Proposals并集的显著性检测模型.智能系统学报,2018,13(6): 946-951. 英文引用格式:ZHAO Runxia,JIAN Muwei,,QI Qiang,etal.Saliency detection model based on the union of Object Proposals. CAAI transactions on intelligent systems,2018,13(6):946-951. Saliency detection model based on the union of Object Proposals ZHAO Runxia',JIAN Muwei,QI Qiang',WANG Jing',WANG Ruihong',DONG Junyu' (1.College of Information Science and Engineering.Ocean University of China,Qingdao 266000,China;2.School of Computer Sci- ence &Technology,Shandong University of Finance and Economics,Ji'nan 250014,China) Abstract:In saliency detection,current existing models usually produce results containing many background regions. To improve the performance,a novel saliency detection model is proposed based on the union of object proposals.The model first generates a series of object proposals from the input pictures,and then gets the background map by comput- ing the union,and then obtains the initial saliency map by combining the texture and global contrast.Finally,the final saliency map is derived by restraining the initial saliency map with the obtained background map.Experimental results on the general MSRA1000 dataset demonstrate that the proposed saliency model performs well compared to the other five existing methods. Keywords:saliency detection;Object Proposal;superpixels;texture;background map;global contrast;boundary con- nectivity;bottom-up 近年来,显著性检测在图像处理和计算机视 显著性检测方法通常可分为两种模型:自底 觉领域中愈发重要,并且得到了广泛研究和应 向上(bottom-up)5-10和自顶向下(top-down)-i。 用。显著性检测的本质是模拟人类的视觉注意机 自底向上一般是快速的、数据驱动的显著性提取 制提取图像中最引人注意的区域,目前已被广泛 模型。Cheng等提出了基于区域对比度的显著 应用于图像分割山、目标识别)、像压缩以及图 性检测算法,用于测量全局对比度差异;Harel等 像检索等领域。 提出了一种基于图形的显著性模型检测图像中的 显著物体;Erdem!使用从局部图像块提取的图像 收稿日期:2018-01-08.网络出版日期:2018-04-12 基金项目:国家自然科学基金项目(61601427,61602229)】 特征的协方差矩阵来计算最终的显著性图;Murray 通信作者:蹇木伟.E-mail:20l730l6@sdufe.edu.cn 等]设计了一种特殊的颜色外观显著性检测模
DOI: 10.11992/tis.201801009 网络出版地址: http://kns.cnki.net/kcms/detail/23.1538.TP.20180412.1148.008.html 基于 Object Proposals 并集的显著性检测模型 赵闰霞1 ,蹇木伟1,2,齐强1 ,王静1 ,王瑞红1 ,董军宇1 (1. 中国海洋大学 信息科学与工程学院,山东 青岛 266000; 2. 山东财经大学 计算机科学与技术学院,山东 济南 250014) 摘 要:针对当前常见的显著性检测模型得到的结果会包含大量的背景区域的缺点,本文提出了基于 Object Proposals 并集的显著性检测模型。该模型首先对于输入图片生成一系列 Object Proposals,并通过其并集计算得 到背景图;然后结合纹理特征和全局对比度得到初始显著图;最后,用得到的背景图对初始显著图进行背景抑 制得到最终显著图。实验结果表明,在通用 MSRA1000 数据集上,本文提出的显著性模型与其他 5 种方法相比 取得了很好的效果。 关键词:显著性检测;object proposal;超像素;纹理;背景图;全局对比度;边界连通性;自底向上 中图分类号:TP391 文献标志码:A 文章编号:1673−4785(2018)06−0946−06 中文引用格式:赵闰霞, 蹇木伟, 齐强, 等. 基于 Object Proposals 并集的显著性检测模型[J]. 智能系统学报, 2018, 13(6): 946–951. 英文引用格式:ZHAO Runxia, JIAN Muwei, QI Qiang, et al. Saliency detection model based on the union of Object Proposals[J]. CAAI transactions on intelligent systems, 2018, 13(6): 946–951. Saliency detection model based on the union of Object Proposals ZHAO Runxia1 ,JIAN Muwei1,2 ,QI Qiang1 ,WANG Jing1 ,WANG Ruihong1 ,DONG Junyu1 (1. College of Information Science and Engineering, Ocean University of China, Qingdao 266000, China; 2. School of Computer Science &Technology, Shandong University of Finance and Economics, Ji’nan 250014, China) Abstract: In saliency detection, current existing models usually produce results containing many background regions. To improve the performance, a novel saliency detection model is proposed based on the union of object proposals. The model first generates a series of object proposals from the input pictures, and then gets the background map by computing the union, and then obtains the initial saliency map by combining the texture and global contrast. Finally, the final saliency map is derived by restraining the initial saliency map with the obtained background map. Experimental results on the general MSRA1000 dataset demonstrate that the proposed saliency model performs well compared to the other five existing methods. Keywords: saliency detection; Object Proposal; superpixels; texture; background map; global contrast; boundary connectivity; bottom-up 近年来,显著性检测在图像处理和计算机视 觉领域中愈发重要,并且得到了广泛研究和应 用。显著性检测的本质是模拟人类的视觉注意机 制提取图像中最引人注意的区域,目前已被广泛 应用于图像分割[1] 、目标识别[2] 、像压缩[3]以及图 像检索[4]等领域。 显著性检测方法通常可分为两种模型:自底 向上 (bottom-up)[5−10]和自顶向下 (top-down)[11−12]。 自底向上一般是快速的、数据驱动的显著性提取 模型。Cheng 等 [5]提出了基于区域对比度的显著 性检测算法,用于测量全局对比度差异;Harel 等 [6] 提出了一种基于图形的显著性模型检测图像中的 显著物体;Erdem[7]使用从局部图像块提取的图像 特征的协方差矩阵来计算最终的显著性图;Murray 等 [8]设计了一种特殊的颜色外观显著性检测模 收稿日期:2018−01−08. 网络出版日期:2018−04−12. 基金项目:国家自然科学基金项目 (61601427,61602229). 通信作者:蹇木伟. E-mail:20173016@sdufe.edu.cn. 第 13 卷第 6 期 智 能 系 统 学 报 Vol.13 No.6 2018 年 12 月 CAAI Transactions on Intelligent Systems Dec. 2018
第6期 赵闰霞,等:基于Object Proposals并集的显著性检测模型 ·947· 型;Shi通过图形模型提出了一种分层图像显著 框进行选择。一般分数靠前的候选框能够更准确 性目标检测方法,以产生最终显著性等级;Yang 地包含到目标物体,所以选择前N个候选框作为 等通过基于图形的流形排序实现图像元素(像 目标集合A,在实验中,N的取值为100。 素或区域)与前景或背景线索的相似性的排序。 与自底向上相反,自顶向下通常是慢速的 任务依赖的、目标驱动的显著性提取。自顶向下 的方法通常依赖于学习框架,采用高层线索和先 验知识进行显著性检测。文献[11]中提出了通过 (a)图像1 (b)图像2 (c)图像3 学习条件随机场进行特征组合,并引人动态显著 图1目标候选框 特征以实现显著目标的检测。最近,文献[12]提 Fig.1 Object Proposals 出了一种结合字典学习和条件随机场的自上而下 在目标集合A中,针对图1(b)、(c)的现象,对 的视觉显著性模型。 包含大量背景区域的候选框进行删除。受文献 一般情况下,使用基于学习框架的显著性检 [17-19]的启发,本文中使用基于超像素的边界连 测模型的检测效果会比较好,但是其检测效果会 通性对候选框进行筛选。用BndCon()表示边界 很大程度上依赖于模型的训练样本,训练的过程 连通性,其本质是描述一个区域与图像边界的连 也会使计算复杂度增加。非学习类的显著性检测 通程度2o。BndCon()的定义为 模型通常是以底层特征为线索进行显著性检测, Lentnd (sp:) 如对比度先验、中心先验、背景先验等。这些方 BndCon(sp)=- (1) VArea(sp:) 法一般只对简单的场景有效,当背景与检测对象 式中:Area(sp,)的含义是区域中存在的超像素数 相似时,这类方法将无法准确地检测出目标物体。 本文提出基于Object Proposals并集的显著性 目,而Lenpna((sp,)则是与边界相邻的超像素的数 检测模型。首先我们利用Object Proposals 目。BndCon(sp,)的值越大,则表明边界上的超像 素数目越多,也就是该区域是背景区域的可能性 的有效信息预测背景区域的位置并得到背景图, 越大。若一个候选框计算得到的BndCon(sp,)很 然后基于纹理特征以及全局对比度进行显著性检 大,我们则认为这个候选框包含了很多背景区 测,最后将三者进行融合得到最终的显著图。 域,并从A中将其删除。最终得到的目标集合能 Object Proposals 尽量去除背景区域的影响,更新后的目标集合记 作厂。 Object Proposals是一系列包含目标对象的候 选区域,它通常以预处理的形式广泛应用于各种 2基于Object Proposals并集的显著性 视觉任务。Alexe等I31提出了对象度量(object- 检测 ness measure)的概念,量化一个图像窗口覆盖对 象的可能性;Cheng等提出二值化规范梯度 2.1构建基于OP并集的背景图 (BING)特征,有助于用对象评分(objectness score) 定义得到的目标集合A=b,b2,…,bn,其中 搜索对象。本文使用Edge Boxes!算法生成Pro- b,表示第i个候选框,n表示候选框的个数。为了 posals,得到的Proposals会包含丰富的对象级特 得到最终的背景图,以候选框中包含的超像素为 征,我们利用这些特征判断显著目标的位置并预 单位进行计算1”,超像素sp,的目标分数O(P,)定 测背景区域。 义为 对于图像I,首先使用SLIC算法11得到超 0(sp,)=∑ob)dsp,eb (2) 像素图,I={sp1,sp2,…,spml。然后使用Edge Boxes 0 算法生成图像I的Proposals,这里面部分候选框 o(b)表示候选框b,的目标分数,若超像素 能准确地标注到目标对象,但也存在大量的候选 sp:属于候选框b,)则取值为1,否则为0。 框包含太多的背景区域或者不包含目标对象。以 通过计算A厂中所有超像素的(P,)值,可以得 图1为例,(a)中的3个候选框都标注到了目标对 到最终的OP并集,然后用φ划分目标对象和背 象,且包含的背景区域比较少:(b)中的候选框则 景区域,如下: 没有包含目标对象;(©)中的候选框虽然包含了目 Φ(sp)= 0 O(sp)≤9 标对象,但也包含了很多的背景区域。为了得到 O(sp),其他 (3) 更准确的背景区域,根据目标分数对得到的候选 式中p= ∑0仰)。当目标分数小于等于阙
型;Shi[9]通过图形模型提出了一种分层图像显著 性目标检测方法,以产生最终显著性等级;Yang 等 [10]通过基于图形的流形排序实现图像元素 (像 素或区域) 与前景或背景线索的相似性的排序。 与自底向上相反,自顶向下通常是慢速的、 任务依赖的、目标驱动的显著性提取。自顶向下 的方法通常依赖于学习框架,采用高层线索和先 验知识进行显著性检测。文献[11]中提出了通过 学习条件随机场进行特征组合,并引入动态显著 特征以实现显著目标的检测。最近,文献[12]提 出了一种结合字典学习和条件随机场的自上而下 的视觉显著性模型。 一般情况下,使用基于学习框架的显著性检 测模型的检测效果会比较好,但是其检测效果会 很大程度上依赖于模型的训练样本,训练的过程 也会使计算复杂度增加。非学习类的显著性检测 模型通常是以底层特征为线索进行显著性检测, 如对比度先验、中心先验、背景先验等。这些方 法一般只对简单的场景有效,当背景与检测对象 相似时,这类方法将无法准确地检测出目标物体。 本文提出基于 Object Proposals 并集的显著性 检测模型。首先我们利 用 Object Proposals 的有效信息预测背景区域的位置并得到背景图, 然后基于纹理特征以及全局对比度进行显著性检 测,最后将三者进行融合得到最终的显著图。 1 Object Proposals Object Proposals 是一系列包含目标对象的候 选区域,它通常以预处理的形式广泛应用于各种 视觉任务。Alexe 等 [13]提出了对象度量 (objectness measure) 的概念,量化一个图像窗口覆盖对 象的可能性;Cheng 等 [ 1 4 ]提出二值化规范梯度 (BING) 特征,有助于用对象评分 (objectness score) 搜索对象。本文使用 Edge Boxes[15]算法生成 Proposals,得到的 Proposals 会包含丰富的对象级特 征,我们利用这些特征判断显著目标的位置并预 测背景区域。 I = { sp1 ,sp2 ,··· ,spn } 对于图像 I,首先使用 SLIC 算法[ 1 6 ]得到超 像素图, 。然后使用 Edge Boxes[15] 算法生成图像 I 的 Proposals,这里面部分候选框 能准确地标注到目标对象,但也存在大量的候选 框包含太多的背景区域或者不包含目标对象。以 图 1 为例,(a) 中的 3 个候选框都标注到了目标对 象,且包含的背景区域比较少;(b) 中的候选框则 没有包含目标对象;(c) 中的候选框虽然包含了目 标对象,但也包含了很多的背景区域。为了得到 更准确的背景区域,根据目标分数对得到的候选 框进行选择。一般分数靠前的候选框能够更准确 地包含到目标物体,所以选择前 N 个候选框作为 目标集合 A,在实验中,N 的取值为 100。 在目标集合 A 中,针对图 1(b)、(c) 的现象,对 包含大量背景区域的候选框进行删除。受文献 [17-19]的启发,本文中使用基于超像素的边界连 通性对候选框进行筛选。用 BndCon(∙) 表示边界 连通性,其本质是描述一个区域与图像边界的连 通程度[20]。BndCon(∙) 的定义为 BndCon( spi ) = Lenbnd ( spi ) √ Area ( spi ) (1) 式中:Area(spi ) 的含义是区域中存在的超像素数 目,而 Lenbnd(spi ) 则是与边界相邻的超像素的数 目。BndCon(spi ) 的值越大,则表明边界上的超像 素数目越多,也就是该区域是背景区域的可能性 越大。若一个候选框计算得到的 BndCon(spi ) 很 大,我们则认为这个候选框包含了很多背景区 域,并从 A 中将其删除。最终得到的目标集合能 尽量去除背景区域的影响,更新后的目标集合记 作 A –。 2 基于 Object Proposals 并集的显著性 检测 2.1 构建基于 OP 并集的背景图 A − 定义得到的目标集合 = {b1,b2,··· ,bn} ,其中 bi 表示第 i 个候选框,n 表示候选框的个数。为了 得到最终的背景图,以候选框中包含的超像素为 单位进行计算[17] ,超像素 spi 的目标分数 O(pi ) 定 义为 O ( spi ) = ∑n j=0 o ( bj ) · δ, spi ∈ bj (2) o(bj ) 表示候选框 bj 的目标分数,若超像素 spi 属于候选框 bj,δ(∙) 则取值为 1,否则为 0。 通过计算 A –中所有超像素的 (pi ) 值,可以得 到最终的 OP 并集,然后用 φ 划分目标对象和背 景区域,如下: Φ ( spi ) = { 0, O ( spi ) , O ( spi ) ⩽ φ 其他 (3) φ = µ N ∑N i=1 O ( spi ) 式中 。当目标分数小于等于阈 (a) 图像1 (b) 图像2 (c) 图像3 图 1 目标候选框 Fig. 1 Object Proposals 第 6 期 赵闰霞,等:基于 Object Proposals 并集的显著性检测模型 ·947·
·948· 智能系统学报 第13卷 值9时,将其定义为背景区域,大于0的区域不做 有效的显著性检测方法。在文献[5]中是将图片 处理,如图2所示。图2中第1列为原图,第4列 分割成若干区域,计算区域及颜色对比度,再用 为得到的背景图,背景图中黑色区域表示背景, 每个区域与其他区域对比度加权和定义此区域的 与原图相比可知,我们得到的背景图能够检测到 显著性。本文中直接在第1节中获得的超像素基 大部分背景区域。 础上进行计算。对于任意超像素sp,在CIE LAB色彩空间中计算超像素sp:的颜色平均值 c以及平均像素坐标d,并将d:归一化到[0,1]。 对于超像素sp,其空间加权区域对比度为 S2(sp,)=∑lc-c‖exp ld-d 、22 (8) 式中:o。为空间加权参数,O,越小,空间权值的影 响就会越大,这样就可以使较近的区域对当前区 域的显著性值产生较大的影响。本文中,σ,2取值 0.2。图2中的第2列是全局对比度的检测结果, 图2本文的显著性检测模型 全局对比度图能进一步凸显前景区域,加深纹理 Fig.2 Our proposed saliency model 检测图中的显著目标的显著程度。 2.2纹理显著性 2.4显著性融合 纹理2-2通常反应的是图像的某种局部化性 将得到的背景图(2.1节)、纹理显著图 质,一般表现为图像像素点某邻域内灰度级或者 (2.2节)以及全局对比显著图(2.3节)进行融合。 颜色的变化。在图像中彩色像素并不是一个随机 首先将纹理显著图和全局对比度显著图进行融 的组合,而是有一定含义的排列,不同排列会形 合,旨在结合二者的优势,相互补充,优化显著图。 成不同的纹理,这些纹理特征则可用于对图像中 Sal norm(S)+norm(S2) (9) 的空间信息进行一定程度的定量描述。 式中norm(~)是对得到的显著图进行归一化。在 在本文中,使用选择性纹理2获得纹理显著 这里选择“+”是因为纹理检测和全局对比度检测 性。首先,将纹理表达式通过k-meanst2 可以相互补充,此外,通过加运算可以使前景区 算法进行聚类,并将聚类中心作为代表纹理),最 域分布更均匀。 后每个纹理特征都可以用其最近的代表纹理进行 在得到融合显著图Sal后,使用2.1节中得到 表示。使用的滤波器组是高斯导数以及其希尔伯 的背景图对显著图Sal的背景区域进行抑制,从 特变换沿着y轴旋转得到的,具体为 而提高显著图的准确率。 无c0= (4) S=Sal×Φ(0(p)≤p) (10) 式中Φ(O(p)≤p)是指背景图中的背景区域。图2 f (x,y)Hilbert(f(x,y)) (5) 中的第5列是融合后的最终显著图S,得到的最 式中:4是标准化常数,σ和I分别是尺度参数和 终显著图在目标物体上显著性分布更均匀,与背 方向参数。对于图像I的第i个像素L,的纹理显 景的分割边界也更加清晰。 著性定义如下: S1(L,R)= ∑ D(I,) (6) 3实验与比较 Ifth!/ER 式中:R表示I所在的区域,D(I,I)是I,和I的纹 本文在MSRA1000公开数据集对本文的显著 理特征的距离,其定义如下: 性模型进行了测试,并与一些经典的算法进行比 D(I,I)=ll ti-till2 (7) 较:SR、HC、FT2、LC7、GS2。实验过程中, 式中t,和t分别是像素,和L,的纹理特征。图2 使用的代码均采用作者公开的代码。 中的第3列是选择性纹理检测2的结果,可以看 图3是将本文的显著性检测模型与其他5种 出纹理显著性检测能够区分出不同纹理的对象, 算法进行比较的效果图。从图中可以看出在 但结果依然会包含背景中的部分纹理内容,比如 MSRA1000数据集上本文提出的显著性检测模 第3行的纹理检测结果。 型比SR、HC、FT、LC相比效果有很大提升;与 2.3全局对比度显著性 G$相比,本文的显著性检测图前景分布更均匀, 空间加权对比度在文献[5,18]中已被证明是 且背景区域得到了明显抑制
值 φ 时,将其定义为背景区域,大于 φ 的区域不做 处理,如图 2 所示。图 2 中第 1 列为原图,第 4 列 为得到的背景图,背景图中黑色区域表示背景, 与原图相比可知,我们得到的背景图能够检测到 大部分背景区域。 2.2 纹理显著性 纹理[21-22]通常反应的是图像的某种局部化性 质,一般表现为图像像素点某邻域内灰度级或者 颜色的变化。在图像中彩色像素并不是一个随机 的组合,而是有一定含义的排列,不同排列会形 成不同的纹理,这些纹理特征则可用于对图像中 的空间信息进行一定程度的定量描述。 在本文中,使用选择性纹理[23]获得纹理显著 性。首先,将纹理表达式通 过 k-means[ 2 4 ] 算法进行聚类,并将聚类中心作为代表纹理[23] ,最 后每个纹理特征都可以用其最近的代表纹理进行 表示。使用的滤波器组是高斯导数以及其希尔伯 特变换沿着 y 轴旋转得到的,具体为 fg (x, y) = d 2 dy2 ( 1 µ exp( y σ )2 exp( x σl )2 ) (4) fh (x, y) = Hilbert( fg (x, y) ) (5) 式中:μ 是标准化常数,σ 和 l 分别是尺度参数和 方向参数。对于图像 I 的第 i 个像素 Ii 的纹理显 著性定义如下: S 1 (Ii ,Ri) = ∑ Ij,Ii,Ij∈Ri D ( Ii ,Ij ) (6) D ( Ii ,Ij ) 式中:Ri 表示 Ii 所在的区域, 是 Ii 和 Ij 的纹 理特征的距离,其定义如下: D ( Ii ,Ij ) =∥ ti − t j∥2 (7) 式中 ti 和 tj 分别是像素 Ii 和 Ij 的纹理特征。图 2 中的第 3 列是选择性纹理检测[23]的结果,可以看 出纹理显著性检测能够区分出不同纹理的对象, 但结果依然会包含背景中的部分纹理内容,比如 第 3 行的纹理检测结果。 2.3 全局对比度显著性 空间加权对比度在文献[5,18]中已被证明是 有效的显著性检测方法。在文献[5]中是将图片 分割成若干区域,计算区域及颜色对比度,再用 每个区域与其他区域对比度加权和定义此区域的 显著性。本文中直接在第 1 节中获得的超像素基 础上进行计算。对于任意超像 素 spi, 在 CIE LAB 色彩空间中计算超像素 spi 的颜色平均值 ci 以及平均像素坐标 di,并将 di 归一化到[0,1]。 对于超像素 spi,其空间加权区域对比度为 S 2 ( spi ) = ∑ j,i, ∥ ci − cj ∥ ·exp( − ∥ di − dj ∥ 2σ2 p ) (8) 式中:σp 为空间加权参数,σp 越小,空间权值的影 响就会越大,这样就可以使较近的区域对当前区 域的显著性值产生较大的影响。本文中,σp 2 取值 0.2。图 2 中的第 2 列是全局对比度的检测结果, 全局对比度图能进一步凸显前景区域,加深纹理 检测图中的显著目标的显著程度。 2.4 显著性融合 将得到的背景 图 (2. 1 节 ) 、纹理显著 图 (2.2 节) 以及全局对比显著图 (2.3 节) 进行融合。 首先将纹理显著图和全局对比度显著图进行融 合,旨在结合二者的优势,相互补充,优化显著图。 Sal = norm(S 1)+norm(S 2) (9) 式中 norm(∙) 是对得到的显著图进行归一化。在 这里选择“+”是因为纹理检测和全局对比度检测 可以相互补充,此外,通过加运算可以使前景区 域分布更均匀[19]。 在得到融合显著图 Sal 后,使用 2.1 节中得到 的背景图对显著图 Sal 的背景区域进行抑制,从 而提高显著图的准确率。 S = Sal×Φ(O(pi) ⩽ φ) (10) 式中 Φ(O(pi) ⩽ φ) 是指背景图中的背景区域。图 2 中的第 5 列是融合后的最终显著图 S,得到的最 终显著图在目标物体上显著性分布更均匀,与背 景的分割边界也更加清晰。 3 实验与比较 本文在 MSRA1000 公开数据集对本文的显著 性模型进行了测试,并与一些经典的算法进行比 较:SR[25] 、HC[5] 、FT[26] 、LC[27] 、GS[28]。实验过程中, 使用的代码均采用作者公开的代码。 图 3 是将本文的显著性检测模型与其他 5 种 算法进行比较的效果图。从图中可以看出在 MSRA1000 数据集上本文提出的显著性检测模 型比 SR、HC、FT、LC 相比效果有很大提升;与 GS 相比,本文的显著性检测图前景分布更均匀, 且背景区域得到了明显抑制。 图 2 本文的显著性检测模型 Fig. 2 Our proposed saliency model ·948· 智 能 系 统 学 报 第 13 卷
第6期 赵闰霞,等:基于Object Proposals并集的显著性检测模型 ·949· 大只其文负负 (a)原图(b)ground truth(c)SR (d)HC (e)FT (LC (g)GS (h)OUR 图3显著图的视觉效果对比图 Fig.3 Visual comparison of saliency maps 为了更全面地测试方法的性能,使用PR曲 1.0m 线、F-measure进一步与其他方法进行比较。 0.9 对于得到的显著图,设定阈值T∈[0,255]来 0.8 得到二值分割图,并与ground truth进行比较得 0.7 到准确率和召回率。除此之外,我们还记算了F measure衡量总体的检测效果, 0.5 F)Precisionx Recall 0.4 (11) 0.3 B2Precision+Recall 0.2 -OUR B取值为0.3。由图4~5可知,本文方法与 00.10.20.30.40.50.60.70.80.91.0 recall SR、HC、FT、LC相比,准确率和召回率、F-measure 都有很大提升。与GS相比,由图5可以看出,在 图5正确率-召回率曲线 召回率相同时,大部分情况下我们的方法准确率 Fig.5 Precision-recall curves 更高,也存在小部分结果其准确率微低于G$,但 4结束语 从图4也能够看出在平均情况下,无论是准确 度、召回率还是F-measure,本文方法均略高于GS。 本文提出的基于Object Proposals并集的显著 0.9 性检测模型,首先利用Object Proposals计算背景 0.8 图,然后将纹理和全局对比度结合进行显著性检 0.7 测,最后利用背景图抑制背景区域得到最终显著 图。实验结果表明,本文提出的显著性检测模型 取得了较好的效果。 0.2 参考文献: [1]王超,王浩,王伟,等.基于优化ROI的医学图像分割与 SR HC FT LC GS OUR 压缩方法研究).重庆邮电大学学报:自然科学版,2015, 方法 27(2):279-284 图4统计指标的对比结果 WANG Chao.WANG Hao.WANG Wei.et al.Study of Fig.4 Quantitative comparison results optimized ROI based medical image segmentation and
为了更全面地测试方法的性能,使用 PR 曲 线、F-measure 进一步与其他方法进行比较。 对于得到的显著图,设定阈值 Tf∈[0,255]来 得到二值分割图,并与 ground truth 进行比较得 到准确率和召回率。除此之外,我们还记算了 Fmeasure 衡量总体的检测效果, Fβ = ( 1+β 2 ) Precision×Recall β 2Precision+Recall (11) β 2 取值为 0.3。由图 4~5 可知,本文方法与 SR、HC、FT、LC 相比,准确率和召回率、F-measure 都有很大提升。与 GS 相比,由图 5 可以看出,在 召回率相同时,大部分情况下我们的方法准确率 更高,也存在小部分结果其准确率微低于 GS,但 从图 4 也能够看出在平均情况下,无论是准确 度、召回率还是 F-measure,本文方法均略高于 GS。 4 结束语 本文提出的基于 Object Proposals 并集的显著 性检测模型,首先利用 Object Proposals 计算背景 图,然后将纹理和全局对比度结合进行显著性检 测,最后利用背景图抑制背景区域得到最终显著 图。实验结果表明,本文提出的显著性检测模型 取得了较好的效果。 参考文献: 王超, 王浩, 王伟, 等. 基于优化 ROI 的医学图像分割与 压缩方法研究[J]. 重庆邮电大学学报: 自然科学版, 2015, 27(2): 279–284. WANG Chao, WANG Hao, WANG Wei, et al. Study of optimized ROI based medical image segmentation and [1] (a) 原图 (b) ground truth (c) SR (d) HC (e) FT (f) LC (g) GS (h) OUR 图 3 显著图的视觉效果对比图 Fig. 3 Visual comparison of saliency maps 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 Precision Recall F-measure SR HC FT LC GS OUR 数值 方法 图 4 统计指标的对比结果 Fig. 4 Quantitative comparison results 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 精度 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 recall SR HC FT LC GS OUR 图 5 正确率–召回率曲线 Fig. 5 Precision-recall curves 第 6 期 赵闰霞,等:基于 Object Proposals 并集的显著性检测模型 ·949·
·950· 智能系统学报 第13卷 compression method[]].Journal of Chongqing university tion at 300fps[C]//Proceedings of IEEE conference on of posts and telecommunications:natural science edition, computer vision and pattern recognition.Columbus,OH, 2015.27(2):279-284. USA.2014:3286-3293. [2]杨林娜.安玮,林再平,等.基于空间距离改进的视觉显 [15]ZITNICK C L,DOLLaR P.Edge boxes:Locating object 著性弱小目标检测[.光学学报,2015,35(7):0715004 proposals from edges[C]//Proceedings of European Con- YANG Linna,AN Wei,LIN Zaiping,et al.Small target ference on Computer Vision.Cham:Springer,2014: detection based on visual saliency improved by spatial dis- 391-405. tance[J].Acta optica sinica,2015.35(7):0715004. [16]ACHANTA R,SHAJI A,SMITH K,et al.SLIC super- [3]ITTI L.Automatic foveation for video compression using a pixels compared to state-of-the-art superpixel methods[J]. neurobiological model of visual attention[J].IEEE transac- IEEE transactions on pattern analysis and machine intelli- tions on image processing,2004,13(10):1304-1318. gence,2012,3411):2274-2282 [4]CHEN Tao,CHENG Mingming,TAN Ping,et al. [17]HUANG Fang,QI Jinging,LU Huchuan,et al.Salient ob- Sketch2photo:internet image montage[J].ACM transac- ject detection via multiple instance learning[J].IEEE tions on graphics,2009,28(5):1-10. transactions on image processing,2017,26(4):1911- [5]CHENG Mingming,MITRA N J,HUANG Xiaolei,et al. 1922. Global contrast based salient region detection[J].IEEE [18]PERAZZI F,KRAHENBUHL P,PRITCH Y,et al.Sali- transactions on pattern analysis and machine intelligence, ency filters:Contrast based filtering for salient region de- 2015,37(3):569-582 tection[C]//Proceedings of IEEE Conference on Com- [6]HAREL J.KOCH C.PERONA P.Graph-based visual sali- puter Vision and Pattern Recognition.Providence,RI, ency[C]//Proceedings of the 19th International Conference USA.2012:733-740. on Neural Information Processing Systems.Cambridge, [19]XI Tao.ZHAO Wei.WANG Han,et al.Salient object de- MA.USA.2007:545-552. tection with spatiotemporal background priors for [7]ERDEM E,ERDEM A.Visual saliency estimation by non- video[J].IEEE transactions on image processing,2017, linearly integrating features using region covariances[J]. 26(7:3425-3436. Journal of vision,2013,13(4):11. [20]ZHU Wangjiang,LIANG Shuang,WEI Yichen,et al.Sa- [8]MURRAY N,VANRELL M,OTAZU X,et al.Saliency liency optimization from robust background detection estimation using a non-parametric low-level vision model [Cl//Proceedings of IEEE conference on computer vision [C]//Proceedings of the 2011 IEEE Conference on Com- and pattern recognition.Columbus,OH,USA,2014: puter Vision and Pattern Recognition.Washington,DC, 2814-2821. USA,2011:433-440. [21]刘丽,匡纲要.图像纹理特征提取方法综述[】.中国图 [9]SHI Jianping,YAN Qiong,XU Li,et al.Hierarchical im- 象图形学报,2009,144):622-635 age saliency detection on extended CSSD[J].IEEE transac- LIU li,KUANG Gangyao.Overview of image textural tions on pattern analysis and machine intelligence,2016, feature extraction methods[J].Journal of image and 38(4):717-729 graphics,2009,14(4):622-635. [10]YANG Chuan,ZHANG Lihe,LU Huchuan,et al.Sali- [22]王佐成,薛丽霞.一种新的纹理基元发现及表达方法[ ency detection via graph-based manifold ranking[C]//Pro- 重庆邮电大学学报:自然科学版,2011,23(1):115-120 ceedings of the IEEE conference on computer vision and WANG Zuocheng,XUE Lixia.A new representation pattern recognition.Washington,DC,USA,2013:3166- method of image texton[J].Journal of Chongqing uni- 3173. versity of posts and telecommunications:natural science [11]LIU Tie,YUAN Zejian,SUN Jian,et al.Learning to de- edition.2011,23(1):115-120. tect a salient object[J].IEEE transactions on pattern ana- [23]WANG Qi,YUAN Yuan,YAN Pingkun.Visual saliency lysis and machine intelligence,2011,33(2):353-367. by selective contrast[J].IEEE transactions on circuits and [12]YANG Jimei,YANG M H.Top-down visual saliency via systems for video technology,2013,23(7):1150-1155. joint CRF and dictionary learning[C]//Proceedings of [24]HARTIGAN J A,WONG M A.Algorithm as 136:a k- Conference on Computer Vision and Pattern Recognition means clustering algorithm.Journal of the royal statist- (CVPR).Washington,DC.USA.2012:2296-2303. ical society.series c (applied statistics),1979,28(1): [13]ALEXE B,DESELAERS T.FERRARI V.Measuring the 100-108. objectness of image windows[.IEEE transactions on [25]HOU Xiaodi,ZHANG Liqing.Saliency detection:a spec- pattern analysis and machine intelligence,2012,34(11): tral residual approach[C]//Proceedings of IEEE Confer- 2189-2202. ence on Computer Vision and Pattern Recognition.Min- [14]CHENG Mingming,ZHANG Ziming,LIN Wenyan,et al. neapolis,MN,USA,2007:1-8 BING:Binarized normed gradients for objectness estima- [26]ACHANTA R,HEMAMI S,Estrada F,et al.Frequency-
compression method[J]. Journal of Chongqing university of posts and telecommunications: natural science edition, 2015, 27(2): 279–284. 杨林娜, 安玮, 林再平, 等. 基于空间距离改进的视觉显 著性弱小目标检测[J]. 光学学报, 2015, 35(7): 0715004. YANG Linna, AN Wei, LIN Zaiping, et al. Small target detection based on visual saliency improved by spatial distance[J]. Acta optica sinica, 2015, 35(7): 0715004. [2] ITTI L. Automatic foveation for video compression using a neurobiological model of visual attention[J]. IEEE transactions on image processing, 2004, 13(10): 1304–1318. [3] CHEN Tao, CHENG Mingming, TAN Ping, et al. Sketch2photo: internet image montage[J]. ACM transactions on graphics, 2009, 28(5): 1–10. [4] CHENG Mingming, MITRA N J, HUANG Xiaolei, et al. Global contrast based salient region detection[J]. IEEE transactions on pattern analysis and machine intelligence, 2015, 37(3): 569–582. [5] HAREL J, KOCH C, PERONA P. Graph-based visual saliency[C]//Proceedings of the 19th International Conference on Neural Information Processing Systems. Cambridge, MA, USA, 2007: 545–552. [6] ERDEM E, ERDEM A. Visual saliency estimation by nonlinearly integrating features using region covariances[J]. Journal of vision, 2013, 13(4): 11. [7] MURRAY N, VANRELL M, OTAZU X, et al. Saliency estimation using a non-parametric low-level vision model [C]//Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition . Washington, DC, USA, 2011: 433–440. [8] SHI Jianping, YAN Qiong, XU Li, et al. Hierarchical image saliency detection on extended CSSD[J]. IEEE transactions on pattern analysis and machine intelligence, 2016, 38(4): 717–729. [9] YANG Chuan, ZHANG Lihe, LU Huchuan, et al. Saliency detection via graph-based manifold ranking[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. Washington, DC, USA, 2013: 3166– 3173. [10] LIU Tie, YUAN Zejian, SUN Jian, et al. Learning to detect a salient object[J]. IEEE transactions on pattern analysis and machine intelligence, 2011, 33(2): 353–367. [11] YANG Jimei, YANG M H. Top-down visual saliency via joint CRF and dictionary learning[C]//Proceedings of Conference on Computer Vision and Pattern Recognition (CVPR). Washington, DC, USA, 2012: 2296–2303. [12] ALEXE B, DESELAERS T, FERRARI V. Measuring the objectness of image windows[J]. IEEE transactions on pattern analysis and machine intelligence, 2012, 34(11): 2189–2202. [13] CHENG Mingming, ZHANG Ziming, LIN Wenyan, et al. BING: Binarized normed gradients for objectness estima- [14] tion at 300fps[C]//Proceedings of IEEE conference on computer vision and pattern recognition. Columbus, OH, USA, 2014: 3286–3293. ZITNICK C L, DOLLáR P. Edge boxes: Locating object proposals from edges[C]//Proceedings of European Conference on Computer Vision. Cham: Springer, 2014: 391–405. [15] ACHANTA R, SHAJI A, SMITH K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE transactions on pattern analysis and machine intelligence, 2012, 34(11): 2274–2282. [16] HUANG Fang, QI Jinqing, LU Huchuan, et al. Salient object detection via multiple instance learning[J]. IEEE transactions on image processing, 2017, 26(4): 1911– 1922. [17] PERAZZI F, KRÄHENBÜHL P, PRITCH Y, et al. Saliency filters: Contrast based filtering for salient region detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI, USA, 2012: 733–740. [18] XI Tao, ZHAO Wei, WANG Han, et al. Salient object detection with spatiotemporal background priors for video[J]. IEEE transactions on image processing, 2017, 26(7): 3425–3436. [19] ZHU Wangjiang, LIANG Shuang, WEI Yichen, et al. Saliency optimization from robust background detection [C]//Proceedings of IEEE conference on computer vision and pattern recognition. Columbus, OH, USA, 2014: 2814–2821. [20] 刘丽, 匡纲要. 图像纹理特征提取方法综述[J]. 中国图 象图形学报, 2009, 14(4): 622–635. LIU li, KUANG Gangyao. Overview of image textural feature extraction methods[J]. Journal of image and graphics, 2009, 14(4): 622–635. [21] 王佐成, 薛丽霞. 一种新的纹理基元发现及表达方法[J]. 重庆邮电大学学报: 自然科学版, 2011, 23(1): 115–120. WANG Zuocheng, XUE Lixia. A new representation method of image texton[J]. Journal of Chongqing university of posts and telecommunications: natural science edition, 2011, 23(1): 115–120. [22] WANG Qi, YUAN Yuan, YAN Pingkun. Visual saliency by selective contrast[J]. IEEE transactions on circuits and systems for video technology, 2013, 23(7): 1150–1155. [23] HARTIGAN J A, WONG M A. Algorithm as 136: a kmeans clustering algorithm[J]. Journal of the royal statistical society. series c (applied statistics), 1979, 28(1): 100–108. [24] HOU Xiaodi, ZHANG Liqing. Saliency detection: a spectral residual approach[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, MN, USA, 2007: 1–8. [25] [26] ACHANTA R, HEMAMI S, Estrada F, et al. Frequency- ·950· 智 能 系 统 学 报 第 13 卷
第6期 赵闰霞,等:基于Object Proposals并集的显著性检测模型 ·951· tuned salient region detection[Cl//Proceedings of Confer- 蹇木伟,男,1982年生,教授,博 ence on Computer vision and pattern recognition.Miami, 士生导师,CCF计算机视觉专委会委 FL,USA,2009:1597-1604. 员,CCF多媒体专委会委员,CCF机 [27]ZHAI Yun.SHAH M.Visual attention detection in video 器学习与模式识别通讯委员,山东数 媒专委会委员等。主要研究方向为图 sequences using spatiotemporal cues[C]//Proceedings of 像处理、模式识别、多媒体计算、机器 the 14th ACM international conference on Multimedia. 学习、认知科学。主持国家自然科学 New York.NY.USA.2006:815-824. [28]WEI Y.WEN F,ZHU W,et al.Geodesic saliency using 基金等研究课题10余项。以第一发明人或第一申请人被授 background priors[J].Computer vision-ECCV 2012. 予3项国家专利,其中1项国家发明专利和2项国家实用新 2012:29-42 型专利。发表学术论文50余篇。被SCI检索的国际期刊论 作者简介: 文14篇、被EI检索论文40余篇。 赵闰霞,女,1993年生,硕土研究 齐强,男,1990年生,硕士研究 生,主要研究方向为图像处理。 生,主要研究方向为图像处理、模式识 别、水下视觉
tuned salient region detection[C]//Proceedings of Conference on Computer vision and pattern recognition. Miami, FL, USA, 2009: 1597–1604. ZHAI Yun, SHAH M. Visual attention detection in video sequences using spatiotemporal cues[C]//Proceedings of the 14th ACM international conference on Multimedia. New York, NY, USA, 2006: 815–824. [27] WEI Y, WEN F, ZHU W, et al. Geodesic saliency using background priors[J]. Computer vision-ECCV 2012, 2012: 29–42. [28] 作者简介: 赵闰霞,女,1993 年生,硕士研究 生,主要研究方向为图像处理。 蹇木伟,男,1982 年生,教授,博 士生导师,CCF 计算机视觉专委会委 员,CCF 多媒体专委会委员,CCF 机 器学习与模式识别通讯委员,山东数 媒专委会委员等。主要研究方向为图 像处理、模式识别、多媒体计算、机器 学习、认知科学。主持国家自然科学 基金等研究课题 10 余项。以第一发明人或第一申请人被授 予 3 项国家专利,其中 1 项国家发明专利和 2 项国家实用新 型专利。发表学术论文 50 余篇。被 SCI 检索的国际期刊论 文 14 篇、被 EI 检索论文 40 余篇。 齐强,男,1990 年生,硕士研究 生,主要研究方向为图像处理、模式识 别、水下视觉。 第 6 期 赵闰霞,等:基于 Object Proposals 并集的显著性检测模型 ·951·