第15卷第2期 智能系统学报 Vol.15 No.2 2020年3月 CAAI Transactions on Intelligent Systems Mar.2020 D0:10.11992/tis.201905035 网络出版地址:http:/kns.cnki.net/kcms/detail/23.1538.TP.20190828.1814.012.html 基于反卷积和特征融合的SSD小目标检测算法 赵文清,周震东,翟永杰 (华北电力大学控制与计算机工程学院,河北保定071003) 摘要:由于小目标的低分辨率和噪声等影响,大多数目标检测算法不能有效利用特征图中小日标的边缘信息 和语义信息,导致其特征与背景难以区分,检测效果差。为解决SSD((single shot multibox detector)模型中小目标 特征信息不足的缺陷,提出反卷积和特征融合的方法。先采用反卷积作用于浅层特征层,增大特征图分辨率, 然后将SSD模型中卷积层conv112的特征图上采样,拼接得到新的特征层,最后将新的特征层与SSD模型中 固有的4个尺度的特征层进行融合。通过将改进后的方法与VOC2007数据集和KITTΠ车辆检测数据集上的 SSD和DSSD方法进行比较,结果表明:该方法降低了小目标的漏检率,并提升整体目标的平均检测准确率。 关键词:小目标检测;反卷积;特征映射;多尺度:特征融合;SSD模型;PASCAL VOC数据集;KITTI数据集 中图分类号:TP18文献标志码:A文章编号:1673-4785(2020)02-0310-07 中文引用格式:赵文清,周震东,翟永杰.基于反卷积和特征融合的SSD小目标检测算法.智能系统学报,2020,15(2): 310-316 英文引用格式:ZHAO Wenqing,ZHOU Zhendong,ZHAI Yongjie.SSD small target detection algorithm based on deconvolution and feature fusion[J].CAAI transactions on intelligent systems,2020,15(2):310-316. SSD small target detection algorithm based on deconvolution and feature fusion ZHAO Wenqing,ZHOU Zhendong,ZHAI Yongjie (School of Control and Computer Engineering,North China Electric Power University,Baoding 071003,China) Abstract:Given the low resolution and noise of small targets,most target detection algorithms cannot effectively util- ize the edge and semantic information of small targets in feature maps,which makes it difficult to distinguish the fea- tures from the background.Thus,the detection effect is poor.To solve the problem of insufficient feature information of small and medium targets in the single shot MultiBox detector(SSD)model,we propose a method based on deconvolu- tion and feature fusion.First,deconvolution is employed to process the shallow feature layer to increase the resolution of the feature graph.Then,the feature map of the convolution layer conv112 in the SSD model is sampled and spliced. Subsequently,a new layer of features is obtained.Finally,the new layer of features is combined with the feature layer of the four scales inherent in the SSD model.The improved method is compared with the SSD and DSSD methods on the VOC2007 dataset and KITTI vehicle detection dataset.The results show that the method reduced the missed detection rate of small targets and improved the average detection accuracy of all targets. Keywords:small target detection;deconvolution;feature mapping;multi-scale;feature fusion;SSD model;PASCAL VOC dataset;KITTI dataset 目前,目标检测技术已经应用于很多领域,无 收稿日期:2019-05-16.网络出版日期:2019-08-29. 基金项目:国家自然科学基金项目(61773160). 人驾驶中道路目标的检测,军事科技中目标的监 通信作者:赵文清.E-mail:jbzwq@126.com 控导航,医疗影响中病变位置的检测等。小目
DOI: 10.11992/tis.201905035 网络出版地址: http://kns.cnki.net/kcms/detail/23.1538.TP.20190828.1814.012.html 基于反卷积和特征融合的 SSD 小目标检测算法 赵文清,周震东,翟永杰 (华北电力大学 控制与计算机工程学院,河北 保定 071003) 摘 要:由于小目标的低分辨率和噪声等影响,大多数目标检测算法不能有效利用特征图中小目标的边缘信息 和语义信息,导致其特征与背景难以区分,检测效果差。为解决 SSD(single shot multibox detector) 模型中小目标 特征信息不足的缺陷,提出反卷积和特征融合的方法。先采用反卷积作用于浅层特征层,增大特征图分辨率, 然后将 SSD 模型中卷积层 conv11_2 的特征图上采样,拼接得到新的特征层,最后将新的特征层与 SSD 模型中 固有的 4 个尺度的特征层进行融合。通过将改进后的方法与 VOC2007 数据集和 KITTI 车辆检测数据集上的 SSD 和 DSSD 方法进行比较,结果表明:该方法降低了小目标的漏检率,并提升整体目标的平均检测准确率。 关键词:小目标检测;反卷积;特征映射;多尺度;特征融合;SSD 模型;PASCAL VOC 数据集;KITTI 数据集 中图分类号:TP18 文献标志码:A 文章编号:1673−4785(2020)02−0310−07 中文引用格式:赵文清, 周震东, 翟永杰. 基于反卷积和特征融合的 SSD 小目标检测算法 [J]. 智能系统学报, 2020, 15(2): 310–316. 英文引用格式:ZHAO Wenqing, ZHOU Zhendong, ZHAI Yongjie. SSD small target detection algorithm based on deconvolution and feature fusion[J]. CAAI transactions on intelligent systems, 2020, 15(2): 310–316. SSD small target detection algorithm based on deconvolution and feature fusion ZHAO Wenqing,ZHOU Zhendong,ZHAI Yongjie (School of Control and Computer Engineering, North China Electric Power University, Baoding 071003, China) Abstract: Given the low resolution and noise of small targets, most target detection algorithms cannot effectively utilize the edge and semantic information of small targets in feature maps, which makes it difficult to distinguish the features from the background. Thus, the detection effect is poor. To solve the problem of insufficient feature information of small and medium targets in the single shot MultiBox detector (SSD) model, we propose a method based on deconvolution and feature fusion. First, deconvolution is employed to process the shallow feature layer to increase the resolution of the feature graph. Then, the feature map of the convolution layer conv11_2 in the SSD model is sampled and spliced. Subsequently, a new layer of features is obtained. Finally, the new layer of features is combined with the feature layer of the four scales inherent in the SSD model. The improved method is compared with the SSD and DSSD methods on the VOC2007 dataset and KITTI vehicle detection dataset. The results show that the method reduced the missed detection rate of small targets and improved the average detection accuracy of all targets. Keywords: small target detection; deconvolution; feature mapping; multi-scale; feature fusion; SSD model; PASCAL VOC dataset; KITTI dataset 目前,目标检测技术已经应用于很多领域,无 人驾驶中道路目标的检测,军事科技中目标的监 控导航,医疗影响中病变位置的检测等[1-4]。小目 收稿日期:2019−05−16. 网络出版日期:2019−08−29. 基金项目:国家自然科学基金项目 (61773160). 通信作者:赵文清. E-mail:jbzwq@126.com. 第 15 卷第 2 期 智 能 系 统 学 报 Vol.15 No.2 2020 年 3 月 CAAI Transactions on Intelligent Systems Mar. 2020
第2期 赵文清,等:基于反卷积和特征融合的SSD小目标检测算法 ·311· 标检测作为目标检测的一项关键技术,近年来已 目标的相关性,通过反卷积增大特征层conv43 成为研究的热点。小目标因为尺度过小、特征不 分辨率,映射特征信息,池化后与具有丰富语义 清晰、边框信息模糊、易被干扰等特点,容易造成 信息的convl12特征图拼接,最后将SSD模型中 误检漏检。因此,小目标检测技术仍需完善。 固有的特征层与改进后的特征层融合,很大程度 目标检测算法主要有2类,第1类是双阶段 上丰富了特征图中小目标的特征信息。本文主要 检测方法,例如RCNNISI、Faster-RCNN、Mask- 选取SSD、DSSD和RFB模型在VOC2007测试集 RCNNITI等,该类算法首先在特征图上对可能存 和KITTI车辆检测数据集上作对比实验,比较检 在目标的位置提取候选区域框,然后对提取到的 测的mAP值。实验结果表明,通过训练改进后 特征进行筛选和定位。对于小目标的检测,RCNN 的SSD模型,在VOC2007测试集上和KITTI中 系列的算法未缩放原图尺寸,当目标本身像素过 2012 2D Object Detection left color images of object 低,在一定深度的网络上,提取到的特征图中会 data数据集的mAP分别为82.6%和68.9%,对小 丢失很多小目标的边缘信息,影响检测效果。第 目标检测的平均准确率有显著提升。 2类是单阶段检测方法,以SSD8]和YOLO] 1相关工作 为主,YOLO算法的做法是将特征图等分为n×n 的网格,但是一个网格中存在多个小目标的时 1.1SSD网络结构 候,会造成目标的漏检和误检,而SSD算法在一 SSD模型以VGG16网络为基础模型,并通过 个网格中提取多个候选区域,兼顾检测的准确率 对ILSVRC CLS-LOC数据集上预训练,采用多尺 和速度。但是,由于SSD的检测模型只有底层的 度特征图检测方法,其中特征层conv43输出的 conv43用于检测小目标,不具有足够的语义信 特征图分辨率最高,为38×38,负责检测小目标。 息,因此S$D模型无法有效检测小目标,其效果 其检测模型如图1所示。 有待提升。 特征层 为了提高S$D模型对小目标的检测准确率, 2017年,LiuW等0在SSD的基础上做了进一步 改进,充分利用特征层之间的上下文信息,使用 残差网络提升特征网络的表征能力,提出DSSD 模型,但是这种方法使检测速度大幅度降低。Bha- rat等)提出SNIP算法,主要对特征图进行不同 倍数的上采样,实验出了相对最优的检测小目标 的特征图尺寸,预测时建立多尺度预测模型,筛 选出指定范围内的候选框,最后通过sof-nms2] 图1SSD检测模型 融合不同分辨率下的检测结果,效果显著。文献[3] Fig.1 SSD detection model 提出了receptive field block(RFB),通过调整感受野 1.2反卷积 大小,进一步增强网络的特征提取能力,将RFB 反卷积是卷积操作的逆运算,能够增大特征 与SSD结合,从而有效增大了感受野,提高了检 图分辨率,扩大感受野,卷积与反卷积的过程如 测准确率。基于特征融合的思想,Seung-Wook 图2所示。 Kim等I提出的PFPNet模型在SSD模型基础上 引入SPPNet"s方法构造特征金字塔,取得了显著 的效果。Chenchen Zhu等提出的FSAFue模型让 目标自动选择最合适的特征,实现了模型自动化 学习,FSAF模块集成到SSD模型中可以有效提 高小目标检测准确率。 DSSD算法和文献[I7]提出的基于反卷积操 作改进的SSD算法都只是用反卷积层和特征层 (a)卷积过程 (b)反卷积过程 进行点积融合,并未充分利用小目标的边缘信 图2卷积和反卷积 息,本文依据SSD模型中不同特征层与不同大小 Fig.2 convolution and deconvolution
标检测作为目标检测的一项关键技术,近年来已 成为研究的热点。小目标因为尺度过小、特征不 清晰、边框信息模糊、易被干扰等特点,容易造成 误检漏检。因此,小目标检测技术仍需完善。 目标检测算法主要有 2 类,第 1 类是双阶段 检测方法,例如 RCNN[5] 、Faster-RCNN[6] 、MaskRCNN[7] 等,该类算法首先在特征图上对可能存 在目标的位置提取候选区域框,然后对提取到的 特征进行筛选和定位。对于小目标的检测,RCNN 系列的算法未缩放原图尺寸,当目标本身像素过 低,在一定深度的网络上,提取到的特征图中会 丢失很多小目标的边缘信息,影响检测效果。第 2 类是单阶段检测方法,以 SSD[ 8 ] 和 YOLO[ 9 ] 为主,YOLO 算法的做法是将特征图等分为 n×n 的网格,但是一个网格中存在多个小目标的时 候,会造成目标的漏检和误检,而 SSD 算法在一 个网格中提取多个候选区域,兼顾检测的准确率 和速度。但是,由于 SSD 的检测模型只有底层的 conv4_3 用于检测小目标,不具有足够的语义信 息,因此 SSD 模型无法有效检测小目标,其效果 有待提升。 为了提高 SSD 模型对小目标的检测准确率, 2017 年,Liu W 等 [10] 在 SSD 的基础上做了进一步 改进,充分利用特征层之间的上下文信息,使用 残差网络提升特征网络的表征能力,提出 DSSD 模型,但是这种方法使检测速度大幅度降低。Bharat 等 [11] 提出 SNIP 算法,主要对特征图进行不同 倍数的上采样,实验出了相对最优的检测小目标 的特征图尺寸,预测时建立多尺度预测模型,筛 选出指定范围内的候选框,最后通过 soft-nms[12] 融合不同分辨率下的检测结果,效果显著。文献 [13] 提出了 receptive field block(RFB),通过调整感受野 大小,进一步增强网络的特征提取能力,将 RFB 与 SSD 结合,从而有效增大了感受野,提高了检 测准确率。基于特征融合的思想,Seung-Wook Kim 等 [14] 提出的 PFPNet 模型在 SSD 模型基础上 引入 SPPNet[15] 方法构造特征金字塔,取得了显著 的效果。Chenchen Zhu 等提出的 FSAF[16] 模型让 目标自动选择最合适的特征,实现了模型自动化 学习,FSAF 模块集成到 SSD 模型中可以有效提 高小目标检测准确率。 DSSD 算法和文献 [17] 提出的基于反卷积操 作改进的 SSD 算法都只是用反卷积层和特征层 进行点积融合,并未充分利用小目标的边缘信 息,本文依据 SSD 模型中不同特征层与不同大小 目标的相关性,通过反卷积增大特征层 conv4_3 分辨率,映射特征信息,池化后与具有丰富语义 信息的 conv11_2 特征图拼接,最后将 SSD 模型中 固有的特征层与改进后的特征层融合,很大程度 上丰富了特征图中小目标的特征信息。本文主要 选取 SSD、DSSD 和 RFB 模型在 VOC2007 测试集 和 KITTI 车辆检测数据集上作对比实验,比较检 测的 mAP 值。实验结果表明,通过训练改进后 的 SSD 模型,在 VOC2007 测试集上和 KITTI 中 2012 2D Object Detection left color images of object data 数据集的 mAP 分别为 82.6% 和 68.9%,对小 目标检测的平均准确率有显著提升。 1 相关工作 1.1 SSD 网络结构 SSD 模型以 VGG16 网络为基础模型,并通过 对 ILSVRC CLS-LOC 数据集上预训练,采用多尺 度特征图检测方法,其中特征层 conv4_3 输出的 特征图分辨率最高,为 38×38,负责检测小目标。 其检测模型如图 1 所示。 特征层 SSD 输入图片 conv4_3 conv8_2 conv9_2 conv10_2 conv11_2 conv7 检测 图 1 SSD 检测模型 Fig. 1 SSD detection model 1.2 反卷积 反卷积是卷积操作的逆运算,能够增大特征 图分辨率,扩大感受野,卷积与反卷积的过程如 图 2 所示。 (a) 卷积过程 (b) 反卷积过程 图 2 卷积和反卷积 Fig. 2 convolution and deconvolution 第 2 期 赵文清,等:基于反卷积和特征融合的 SSD 小目标检测算法 ·311·
·312· 智能系统学报 第15卷 图2(a)为卷积过程,特征图尺寸为5×5,卷积 这一特点,本文采用反卷积操作,增大特征图分 核大小为3×3,步长为2,填充为1,经过卷积计 辨率,以便更直观地反映小目标的特征。 算,得到的输出特征为3×3。图2(b)为反卷积过 2反卷积与特征融合相结合的检测 程,输人特征图尺寸为2×2,卷积核大小3×3,步 模型 长为1,填充为2,计算得到的特征输出为4×4。 依次推算,得出反卷积过程中特征图的输入输出 针对SSD模型对小目标检测能力不足的问 关系: 题,本文首先用反卷积增大负责检测小目标的特 o'=s(i-1)+k-2p (1) 征层conv43的特征图,然后再对拥有丰富语义 式中:o为输出:为输入;s为步长;k为卷积核 信息的特征层convI12得到的特征图进行上采 大小;p为填充。 样拼接到改进后的特征图nconv43上,最后与 浅层特征图未经过大量的卷积池化,分辨率 S$D模型固有的多尺度特征层进行像素直接加权 较高。与一般目标检测相比,小目标因为尺寸 和不同加权系数的特征融合。本文提出的反卷积 小,其特征在浅层特征图上更能体现出来。针对 和特征融合的SSD小目标检测模型如图3所示。 反卷积特征区域放大模块 特征图 特征映射 conv4_3 反卷积 deconv4_3 输人 图片 SSD模型 conv11 2 上采样 conv'11 2 20 图3基于反卷积和特征融合的SSD小目标检测模型 Fig.3 SSD small Target Detection Model based on deconvolution and feature Fusion 图3中虚框部分为反卷积特征区域放大模 特征层conv43的特征图,作为候选区域。 块,主要作用是通过反卷积放大conv43特征图 2)反卷积操作作用与特征图conv43,增大其 分辨率,与上采样的convl12特征图拼接,得到 分辨率至输入图像尺寸,使得目标特征更加显 新的特征层nconv43。SSD模型其他特征层为 著,根据第2.2节中反卷积的输入输出关系公式, conv7、conv82、conv92和conv102,与nconv43 SSD300模型将输人图像尺寸压缩至300×300, 进行不同加权系数的特征融合,最后进行对目标 conv43得到的特征图尺寸为38×38,则设置卷积 的定位检测并输出。 步长s=8,卷积核尺寸=4,填充p=1。SSD512模 2.1反卷积特征区域放大 型将输入图像尺寸设置为512×512,经过卷积层 SSD的结构与图像金字塔类似,低层特征图 conv43后,特征图尺寸为64×64,则设置卷积步 分辨率高,拥有更详细的边缘信息,利于检测小 长s=8,卷积核尺寸=8,填充p=0。经过反卷积作 目标,但是缺乏高层特征图所包含的语义信息。 用特征图后,得到新的特征图deconv43。 因此,本文提出了一种通过反卷积增大特征区域 3)提取卷积层conv43的特征图的特征信 分辨率,拼接深层特征图的方法,图3中的反卷积 息,特征映射到deconv43上,此处的特征映射包 特征区域放大模块,具体做法分为以下5个步骤: 含特征图像素点的映射和感受野坐标的映射,首 1)提取SSD模型中第1个负责检测小目标的 先将特征图conv43每个位置的像素映射到de-
图 2(a)为卷积过程,特征图尺寸为 5×5,卷积 核大小为 3×3,步长为 2,填充为 1,经过卷积计 算,得到的输出特征为 3×3。图 2(b)为反卷积过 程,输入特征图尺寸为 2×2,卷积核大小 3×3,步 长为 1,填充为 2,计算得到的特征输出为 4×4。 依次推算,得出反卷积过程中特征图的输入输出 关系: o ′ = s(i ′ −1)+k−2p (1) o ′ i ′ s k p 式中: 为输出; 为输入; 为步长; 为卷积核 大小; 为填充。 浅层特征图未经过大量的卷积池化,分辨率 较高。与一般目标检测相比,小目标因为尺寸 小,其特征在浅层特征图上更能体现出来。针对 这一特点,本文采用反卷积操作,增大特征图分 辨率,以便更直观地反映小目标的特征。 2 反卷积与特征融合相结合的检测 模型 针对 SSD 模型对小目标检测能力不足的问 题,本文首先用反卷积增大负责检测小目标的特 征层 conv4_3 的特征图,然后再对拥有丰富语义 信息的特征层 conv11_2 得到的特征图进行上采 样拼接到改进后的特征图 nconv4_3 上,最后与 SSD 模型固有的多尺度特征层进行像素直接加权 和不同加权系数的特征融合。本文提出的反卷积 和特征融合的 SSD 小目标检测模型如图 3 所示。 输入 图片 conv4_3 conv7 conv8_2 conv9_2 conv10_2 conv11_2 conv′11_2 nconv4_3 deconv4_3 SSD模型 上采样 池化 拼接 特征融合 检测输出 反卷积 特征图 特征映射 反卷积特征区域放大模块 图 3 基于反卷积和特征融合的 SSD 小目标检测模型 Fig. 3 SSD small Target Detection Model based on deconvolution and feature Fusion 图 3 中虚框部分为反卷积特征区域放大模 块,主要作用是通过反卷积放大 conv4_3 特征图 分辨率,与上采样的 conv11_2 特征图拼接,得到 新的特征层 nconv4_3。SSD 模型其他特征层为 conv7、conv8_2、conv9_2 和 conv10_2,与 nconv4_3 进行不同加权系数的特征融合,最后进行对目标 的定位检测并输出。 2.1 反卷积特征区域放大 SSD 的结构与图像金字塔类似,低层特征图 分辨率高,拥有更详细的边缘信息,利于检测小 目标,但是缺乏高层特征图所包含的语义信息。 因此,本文提出了一种通过反卷积增大特征区域 分辨率,拼接深层特征图的方法,图 3 中的反卷积 特征区域放大模块,具体做法分为以下 5 个步骤: 1) 提取 SSD 模型中第 1 个负责检测小目标的 特征层 conv4_3 的特征图,作为候选区域。 2) 反卷积操作作用与特征图 conv4_3,增大其 分辨率至输入图像尺寸,使得目标特征更加显 著,根据第 2.2 节中反卷积的输入输出关系公式, SSD300 模型将输入图像尺寸压缩至 300×300, conv4_3 得到的特征图尺寸为 38×38,则设置卷积 步长 s=8,卷积核尺寸 k=4,填充 p=1。SSD512 模 型将输入图像尺寸设置为 512×512,经过卷积层 conv4_3 后,特征图尺寸为 64×64,则设置卷积步 长 s=8,卷积核尺寸 k=8,填充 p=0。经过反卷积作 用特征图后,得到新的特征图 deconv4_3。 3) 提取卷积层 conv4_3 的特征图的特征信 息,特征映射到 deconv4_3 上,此处的特征映射包 含特征图像素点的映射和感受野坐标的映射,首 先将特征图 conv4_3 每个位置的像素映射到 de- ·312· 智 能 系 统 学 报 第 15 卷
第2期 赵文清,等:基于反卷积和特征融合的SSD小目标检测算法 ·313· conv43上,坐标映射公式如下: 所示: g(x,y)=f(h(x,y)) (2) F=V+av(nconv4 3)+av(conv7)+ a3v(conv8_2)+aav(conv9_2)+asv(conv10_2) (4) 式中:(x,y)表示像素的横纵坐标;g函数为目标特 征图,∫函数是待映射特征图,h函数表示映射方 式中:F为特征输出;V为本文采用的5个尺度的 法。然后引用文献[4]中ROI映射到特征图的方 特征图通过上采样直接加权融合得到特征信息;v 法,实现感受野的坐标映射,如图4所示。 为表示特征层的特征信息的函数,、2、、和 为权重系数,值分别为0.3、0.2、0.15、0.15和 0.2。为避免特征信息冗余,各个权重系数之和为1。 -deconv4 3 2.3先验框尺度调整 SSD模型从卷积层中提取conv7、conv82 conv92、convI02,作为检测所用的特征图,融合 第3.1节中改进后的nconva43层,共5个特征图, conv4 3 其大小分别是(38×38)、(19×19)、(10×10)、(5×5)、 (3×3),不同特征图设置的先验框数目为9、6、6、 图4感受野坐标映射 6、6。先验框的尺度大小变化为线性变化,公式 Fig.4 Receptive field coordinate mapping 如下: 图4表示特征图conv43与特征图deconva4 5=5+a二(k-1),keL,m (5) 3之间的感受野坐标映射关系,p为中心点。将 m-1 点p映射到deconv43中,坐标变化所采用的公 式中:m指的特征图个数;5表示先验框尺寸相对 式如下: 原图片的比例;sm和sx表示比例的最小值与最 Pi=ux p+((t;-1)/2-padding) (3) 大值。为了更好地检测小目标,本文将sm和sma 式中:P:为第i层特征图上的中心点;山和分别 的值调整为0.1和0.9,这样有效避免了由于目标 表示从第+1层反卷积到第i层的卷积步长和卷 过小导致在训练阶段真实标签无法找到相应的先 积核尺寸,padding为填充。 验框与之匹配的问题。 4)将特征映射后的deconva43池化为固定 尺寸。 3实验结果及分析 S)将卷积层convl12的特征图上采样,得到 3.1实验环境 conv112,其尺寸与池化后的deconv43相同。 本文实验所用的配置为:Linux操作系统Ubu 6)拼接池化后的deconv43与conv'112的 ntul6.04LT,选用intel(R)Core(TM)i7-8700的CPU, 特征图,形成新的检测特征层nconv43。 NVIDIA GeForce TX1080Ti的GPU,深度学习框 2.2特征融合 架为Tensor flow. 根据高分辨的浅层特征图细节特征丰富,低 3.2实验数据集 分辨率的深层特征图上下文信息和语义信息丰富 为避免训练数据量不足造成的过拟合问题, 的特点,本文采用加权特征融合的方式,将SSD 本文选用PASCAL VOC和KITTI两个数据集上 固有的多尺度特征图与第2.1节得到的新的特征 面做对比实验,首先在PASCAL VOC数据集中 图进行融合,增强图像特征信息,提高小目标检 选voc2007+voc2012中的训练数据部分为训练 测的准确率。 集,在voc2007测试数据集上做测试。为验证本 加权融合是直接的图像融合方法,该方法实 文模型的检测效果,与SSD、DSSD和文献[11]提 现简单,运算效率高,冗余信息少。目前的特征 出的RFB3种算法作比较,分别在输入图像尺寸 融合的方式多为直接相加,本文旨在提升小目标 为300×300和521×512下进行对比实验。 的检测效果,因此未直接采用相同权值加权,低 其次,本文选取20l22 D Object Detection left 层特征图拥有更多小目标的细节特征信息,因此 color images of object data作为训练集和测试集。 本文在相同权值直接相加的基础之上,额外为 该数据集来自于KITTI车辆检测数据,包括各种 5个不同尺度的特征图分配加权系数,经过多次 道路场景中的车辆,而且也包括大量较小的目标 调参实验,得到一组相对最优权值,分别为30%、 车辆,为验证本文提出模型的检测效果,分别与 20%、15%、15%、20%。特征向量的输出如式(4) SSD、DSSD和文献[12]提出的算法进行对比试验
conv4_3 上,坐标映射公式如下: g(x, y) = f(h(x, y)) (2) (x, y) g f h 式中: 表示像素的横纵坐标; 函数为目标特 征图, 函数是待映射特征图, 函数表示映射方 法。然后引用文献 [4] 中 ROI 映射到特征图的方 法,实现感受野的坐标映射,如图 4 所示。 图 4 感受野坐标映射 Fig. 4 Receptive field coordinate mapping 图 4 表示特征图 conv4_3 与特征图 deconv4_ 3 之间的感受野坐标映射关系,p 为中心点。将 点 p 映射到 deconv4_3 中,坐标变化所采用的公 式如下: pi = ui × pi+1 +((ti −1)/2−padding) (3) pi i ui ti i i 式中: 为第 层特征图上的中心点; 和 分别 表示从第 +1 层反卷积到第 层的卷积步长和卷 积核尺寸,padding 为填充。 4) 将特征映射后的 deconv4_3 池化为固定 尺寸。 5) 将卷积层 conv11_2 的特征图上采样,得到 conv′11_2,其尺寸与池化后的 deconv4_3 相同。 6) 拼接池化后的 deconv4_3 与 conv′11_2 的 特征图,形成新的检测特征层 nconv4_3。 2.2 特征融合 根据高分辨的浅层特征图细节特征丰富,低 分辨率的深层特征图上下文信息和语义信息丰富 的特点,本文采用加权特征融合的方式,将 SSD 固有的多尺度特征图与第 2.1 节得到的新的特征 图进行融合,增强图像特征信息,提高小目标检 测的准确率。 加权融合是直接的图像融合方法,该方法实 现简单,运算效率高,冗余信息少。目前的特征 融合的方式多为直接相加,本文旨在提升小目标 的检测效果,因此未直接采用相同权值加权,低 层特征图拥有更多小目标的细节特征信息,因此 本文在相同权值直接相加的基础之上,额外为 5 个不同尺度的特征图分配加权系数,经过多次 调参实验,得到一组相对最优权值,分别为 30%、 20%、15%、15%、20%。特征向量的输出如式(4) 所示: F = V +a1v(nconv4_3)+a2v(conv7)+ a3v(conv8_2)+a4v(conv9_2)+a5v(conv10_2) (4) F V v α1 α2 α3 α4 α5 式中: 为特征输出; 为本文采用的 5 个尺度的 特征图通过上采样直接加权融合得到特征信息; 为表示特征层的特征信息的函数, 、 、 、 和 为权重系数,值分别为 0.3、0.2、0.15、0.15 和 0.2。为避免特征信息冗余,各个权重系数之和为 1。 2.3 先验框尺度调整 SSD 模型从卷积层中提取 conv7、conv8_2、 conv9_2、conv10_2,作为检测所用的特征图,融合 第 3.1 节中改进后的 nconv4_3 层,共 5 个特征图, 其大小分别是 (38×38)、(19×19)、(10×10)、(5×5)、 (3×3),不同特征图设置的先验框数目为 9、6、6、 6、6。先验框的尺度大小变化为线性变化,公式 如下: sk = smin + smax − smin m−1 (k−1), k ∈ [1,m] (5) m sk smin smax smin smax 式中: 指的特征图个数; 表示先验框尺寸相对 原图片的比例; 和 表示比例的最小值与最 大值。为了更好地检测小目标,本文将 和 的值调整为 0.1 和 0.9,这样有效避免了由于目标 过小导致在训练阶段真实标签无法找到相应的先 验框与之匹配的问题。 3 实验结果及分析 3.1 实验环境 本文实验所用的配置为:Linux 操作系统 Ubuntu16.04LT,选用 intel(R)Core(TM)i7-8700 的 CPU, NVIDIA GeForce TX1080Ti 的 GPU,深度学习框 架为 Tensor flow。 3.2 实验数据集 为避免训练数据量不足造成的过拟合问题, 本文选用 PASCAL VOC 和 KITTI 两个数据集上 面做对比实验,首先在 PASCAL VOC 数据集中 选 voc2007+voc2012 中的训练数据部分为训练 集,在 voc2007 测试数据集上做测试。为验证本 文模型的检测效果,与 SSD、DSSD 和文献 [11] 提 出的 RFB 3 种算法作比较,分别在输入图像尺寸 为 300×300 和 521×512 下进行对比实验。 其次,本文选取 2012 2D Object Detection left color images of object data 作为训练集和测试集。 该数据集来自于 KITTI 车辆检测数据,包括各种 道路场景中的车辆,而且也包括大量较小的目标 车辆,为验证本文提出模型的检测效果,分别与 SSD、DSSD 和文献 [12] 提出的算法进行对比试验。 第 2 期 赵文清,等:基于反卷积和特征融合的 SSD 小目标检测算法 ·313·
·314· 智能系统学报 第15卷 3.3实验结果及对比 集上训练,在VOC2007测试集上的平均mAP为 通过改进SSD模型,对加权特征融合权重参 82.6%,与SSD、DSSD和RFB Net分别对比,实验 数调优,本文模型在VOC2007和VOC2012训练 结果如表1所示。 表1V0C2007测试集检测结果对比 Table 1 Comparison of Test results of VOC2007 test set 方法 输入尺寸 网络 mAP/% Faster R-CNNI5] -1000x600 VGG16 73.2 Faster R-CNNI5] ~1000×600 Residual-101 76.4 YOLOV2 544151 544×544 Darknet 78.6 SSD300m 300×300 VGG16 77.2 DSSD321周 321×321 Residual-101 78.6 RFB3001111 300×300 VGG16 80.5 本文模型 300×300 VGG16 80.9 SSD512m 512×512 VGG16 79.8 DSSD513图 513×513 Residual-101 81.5 RFB512 512×512 VGG16 82.2 本文模型 512×512 VGG16 82.6 由表1数据可知,在VOC2007数据集上测 和RFB Net分别提高2.8%、1.1%和0.4%。 试,输入图像尺寸为300×300时,本文提出模型 本文提出的模型旨在提升小目标的检测准确 的mAP为81.4%,较SSD、DSSD和RFB Net分别 率,V0C2007测试集中有21类不同大小的目标, 提高3.7%、2.3%和0.4%。输入图像为512×512 本文选取其中6类具有代表性的小目标,检测准 时,本文提出模型的mAP为82.6%,较SSD、DSSD 确率与SSD和DSSD对比,实验结果如表2所示。 表2V0C2007数据集中小目标检测的准确率 Table 2 Mean average precision of small targets detection in VOC2007 test set mAP/% 方法 输入尺寸 平均值 船 瓶子 椅子 盆栽 电视 鸟 SSD300 300×300 64.2 69.6 50.5 60.3 52.3 76.8 76.0 DSSD321 321×321 65.8 68.4 53.9 61.1 51.7 79.4 80.5 本文模型 300×300 68.0 71.8 58.5 62.7 54.8 79.2 80.8 SSD512 512×512 68.6 73.0 57.8 63.5 55.6 80.0 81.5 DSSD513 513×513 70.0 74.9 62.5 65.2 51.1 83.7 82.6 本文模型 512×512 71.7 75.8 65.5 67.0 56.7 82.7 82.8 由表2可知,输入图像尺寸为300×300时,本 文方法能有效检测小目标,对小目标检测的平均 文提出的模型在6类小目标的平均检测准确率 准确率有明显的提升。 为68.0%,较SSD300和DSSD321模型分别提升 为进一步验证本文提出的模型对小目标识别 2.2%和3.8%,其中buttle和bird的检测准确率提 的准确率,选取20122 D Object Detection left color 升较为显著。当输入图像尺寸为512×512时,在 images of object data数据集作为训练集和测试集。 6类小目标的平均检测准确率为68.0%,较SSD512 将数据集中的8类目标整合为3类,分别为行人、 和DSSD513模型分别提升3.1%和1.7%。可见本 机动车辆、其他目标。实验结果如表3所示
3.3 实验结果及对比 通过改进 SSD 模型,对加权特征融合权重参 数调优,本文模型在 VOC2007 和 VOC2012 训练 集上训练,在 VOC 2007 测试集上的平均 mAP 为 82.6%,与 SSD、DSSD 和 RFB Net 分别对比,实验 结果如表 1 所示。 表 1 VOC2007 测试集检测结果对比 Table 1 Comparison of Test results of VOC2007 test set 方法 输入尺寸 网络 mAP/% Faster R-CNN[5] ~1 000×600 VGG16 73.2 Faster R-CNN[5] ~1 000×600 Residual-101 76.4 YOLOv2 544[15] 544×544 Darknet 78.6 SSD300[7] 300×300 VGG16 77.2 DSSD321 [8] 321×321 Residual-101 78.6 RFB300[11] 300×300 VGG16 80.5 本文模型 300×300 VGG16 80.9 SSD512[7] 512×512 VGG16 79.8 DSSD513[8] 513×513 Residual-101 81.5 RFB512[11] 512×512 VGG16 82.2 本文模型 512×512 VGG16 82.6 由表 1 数据可知,在 VOC2007 数据集上测 试,输入图像尺寸为 300×300 时,本文提出模型 的 mAP 为 81.4%,较 SSD、DSSD 和 RFB Net 分别 提高 3.7%、2.3% 和 0.4%。输入图像为 512×512 时,本文提出模型的 mAP 为 82.6%,较 SSD、DSSD 和 RFB Net 分别提高 2.8%、1.1% 和 0.4%。 本文提出的模型旨在提升小目标的检测准确 率,VOC2007 测试集中有 21 类不同大小的目标, 本文选取其中 6 类具有代表性的小目标,检测准 确率与 SSD 和 DSSD 对比,实验结果如表 2 所示。 表 2 VOC2007 数据集中小目标检测的准确率 Table 2 Mean average precision of small targets detection in VOC2007 test set 方法 输入尺寸 mAP/% 平均值 船 瓶子 椅子 盆栽 电视 鸟 SSD300 300×300 64.2 69.6 50.5 60.3 52.3 76.8 76.0 DSSD321 321×321 65.8 68.4 53.9 61.1 51.7 79.4 80.5 本文模型 300×300 68.0 71.8 58.5 62.7 54.8 79.2 80.8 SSD512 512×512 68.6 73.0 57.8 63.5 55.6 80.0 81.5 DSSD513 513×513 70.0 74.9 62.5 65.2 51.1 83.7 82.6 本文模型 512×512 71.7 75.8 65.5 67.0 56.7 82.7 82.8 由表 2 可知,输入图像尺寸为 300×300 时,本 文提出的模型在 6 类小目标的平均检测准确率 为 68.0%,较 SSD300 和 DSSD321 模型分别提升 2.2% 和 3.8%,其中 buttle 和 bird 的检测准确率提 升较为显著。当输入图像尺寸为 512×512 时,在 6 类小目标的平均检测准确率为 68.0%,较 SSD512 和 DSSD513 模型分别提升 3.1% 和 1.7%。可见本 文方法能有效检测小目标,对小目标检测的平均 准确率有明显的提升。 为进一步验证本文提出的模型对小目标识别 的准确率,选取 2012 2D Object Detection left color images of object data 数据集作为训练集和测试集。 将数据集中的 8 类目标整合为 3 类,分别为行人、 机动车辆、其他目标。实验结果如表 3 所示。 ·314· 智 能 系 统 学 报 第 15 卷
第2期 赵文清,等:基于反卷积和特征融合的SSD小目标检测算法 ·315· 表3 KITTI数据集测试结果对比 用进展与展望U.自动化学报,2017,43(8):1289-1305, Table 3 Comparison of test results of KITTI test set ZHANG Hui,WANG Kunfeng,WANG Feiyue.Progress 方法 mAP/% and prospect of application of deep learning in target vis- SSD512 62.1 ion detection[J].Acta automatica sinica,2017,43(8): DSSD513 67.3 1289-1305. 文献[18]模型 [5]GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich 68.1 feature hierarchies for accurate object detection and se- 本文模型 68.9 mantic segmentation[C]//Proceedings of 2014 IEEE Con- 文献[18]为吴天舒等提出的基于改进SSD ference on Computer Vision and Pattern Recognition. 的轻量化小目标检测模型。由表2对比可知,本 Columbus,OH,USA,2014:580-587 文提出的模型在KITTI数据集上的mAP较SSD- [6]REN Shaoqing,HE Kaiming,GIRSHICK R,et al.Faster 512、DSSD513、文献[18]模型分别提升了6.8%、 R-CNN:towards real-time object detection with region 1.6%和0.8%,效果显著,可见本文提出的模型对 proposal networks[J].IEEE transactions on pattern analys- 于小目标的识别效果较好。 is and machine intelligence,2017,39(6):1137-1149 [7]HE Kaiming,GKIOXARI G,DOLLAR P,et al.Mask R- 4结论 CNN[C]//Proceedings of 2017 IEEE International Confer- 针对小目标的检测,本文提出了利用反卷积 ence on Computer Vision(ICCV).Venice,Italy,2017: 与特征融合的方法改进原有的SSD模型,对低层 2980-2988. 特征层进行反卷积增大分辨率,融合深层特征层 [8]LIU Wei,ANGUELOV D,ERHAN D,et al.SSD:single 提高小目标特征信息,然后进行多尺度特征融 shot multibox detector[C]//Proceedings of the 14th 合,实验结果表明本文提出模型在整体的检测准 European Conference on Computer Vision.Amsterdam, 确率较SSD、DSSD模型有明显提升,对小目标检 The Netherland,2016:21-37. 测的准确率提升尤为显著。但是,由于反卷积操 [9]REDMON J.DIVVALA S.GIRSHICK R,et al.You only 作增大了模型的计算量,使得检测速度大幅降 look once:Unified,real-time object detection[Cl//Proceed- 低。优化网络结构,降低特征信息冗余将是之后 ings of 2016 IEEE Conference on Computer Vision and 的主要研究方向。 Pattern Recognition.Las Vegas,NV,USA,2016:779-788. [10]FU Chengyang,LIU Wei,RANGA A,et al.DSSD:de- 参考文献: convolutional single shot detector[Cl//Computer Vision [1]杨会成.朱文博.童英.基于车内外视觉信息的行人碰撞 and Pattern Recognition,2017. 预警方法.智能系统学报,2019,14(4):752-760 [11]SINGH B,DAVIS L S.An analysis of scale invariance in YANG Huicheng,ZHU Wenbo,TONG Ying.Pedestrian object detection-SNIP[C]//Proceedings of 2018 IEEE collision warning system based on looking-in and looking- Conference on Computer Vision and Pattern Recognition. out visual information analysis[J].CAAl transactions on Salt Lake City,USA,2018. intelligent systems,2019,14(4):752-760 [12]BODLA N,SINGH B.CHELLAPPA R.et al.Soft-NMS. [2]姚群力,胡显,雷宏.深度卷积神经网络在目标检测中的 improving object detection with one line of code[Cl//Pro- 研究进展U.计算机工程与应用,2018.5417):1-9 ceedings of 2017 IEEE International Conference on Com- YAO Qunli,HU Xian,LEI Hong.Application of deep con- puter Vision (ICCV).Venice,Italy,2017:5562-5570. volutional neural network in object detection[J].Computer [13]LIU Songtao,HUANG Di,WANG Yunhong.Receptive engineering and applications,2018,54(17):1-9. field block net for accurate and fast object detection[Cl// [3]龙敏,佟越洋.应用卷积神经网络的人脸活体检测算法 Proceedings of ECCV2018,2018 研究[).计算机科学与探索,2018,12(10):1658-1670. [14]KIM S W,KOOK H K,SUN J Y,et al.Parallel feature LONG Min,TONG Yueyang.Research on face liveness pyramid network for object detection[C]//Proceedings of detection algorithm using convolutional neural network[J]. the 15th European Conference on Computer Vision-EC- Journal of frontiers of computer science and technology, CV 2018.Munich,Germany,2018:239-256. 2018,12(10)y:1658-1670. [15]HE Kaiming,ZHANG Xiangyu,REN Shaoqing,et al. [4]张慧,王坤峰,王飞跃.深度学习在目标视觉检测中的应 Spatial pyramid pooling in deep convolutional networks
表 3 KITTI 数据集测试结果对比 Table 3 Comparison of test results of KITTI test set 方法 mAP/% SSD512 62.1 DSSD513 67.3 文献[18]模型 68.1 本文模型 68.9 文献 [18] 为吴天舒等提出的基于改进 SSD 的轻量化小目标检测模型。由表 2 对比可知,本 文提出的模型在 KITTI 数据集上的 mAP 较 SSD- 512、DSSD513、文献 [18] 模型分别提升了 6.8%、 1.6% 和 0.8%,效果显著,可见本文提出的模型对 于小目标的识别效果较好。 4 结论 针对小目标的检测,本文提出了利用反卷积 与特征融合的方法改进原有的 SSD 模型,对低层 特征层进行反卷积增大分辨率,融合深层特征层 提高小目标特征信息,然后进行多尺度特征融 合,实验结果表明本文提出模型在整体的检测准 确率较 SSD、DSSD 模型有明显提升,对小目标检 测的准确率提升尤为显著。但是,由于反卷积操 作增大了模型的计算量,使得检测速度大幅降 低。优化网络结构,降低特征信息冗余将是之后 的主要研究方向。 参考文献: 杨会成, 朱文博, 童英. 基于车内外视觉信息的行人碰撞 预警方法 [J]. 智能系统学报, 2019, 14(4): 752–760. YANG Huicheng, ZHU Wenbo, TONG Ying. Pedestrian collision warning system based on looking-in and lookingout visual information analysis[J]. CAAI transactions on intelligent systems, 2019, 14(4): 752–760. [1] 姚群力, 胡显, 雷宏. 深度卷积神经网络在目标检测中的 研究进展 [J]. 计算机工程与应用, 2018, 54(17): 1–9. YAO Qunli, HU Xian, LEI Hong. Application of deep convolutional neural network in object detection[J]. Computer engineering and applications, 2018, 54(17): 1–9. [2] 龙敏, 佟越洋. 应用卷积神经网络的人脸活体检测算法 研究 [J]. 计算机科学与探索, 2018, 12(10): 1658–1670. LONG Min, TONG Yueyang. Research on face liveness detection algorithm using convolutional neural network[J]. Journal of frontiers of computer science and technology, 2018, 12(10): 1658–1670. [3] [4] 张慧, 王坤峰, 王飞跃. 深度学习在目标视觉检测中的应 用进展与展望 [J]. 自动化学报, 2017, 43(8): 1289–1305. ZHANG Hui, WANG Kunfeng, WANG Feiyue. Progress and prospect of application of deep learning in target vision detection[J]. Acta automatica sinica, 2017, 43(8): 1289–1305. GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA, 2014: 580−587. [5] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137–1149. [6] HE Kaiming, GKIOXARI G, DOLLÁR P, et al. Mask RCNN[C]//Proceedings of 2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy, 2017: 2980−2988. [7] LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]//Proceedings of the 14th European Conference on Computer Vision. Amsterdam, The Netherland, 2016: 21−37. [8] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA, 2016: 779-788. [9] FU Chengyang, LIU Wei, RANGA A, et al. DSSD: deconvolutional single shot detector[C]//Computer Vision and Pattern Recognition, 2017. [10] SINGH B, DAVIS L S. An analysis of scale invariance in object detection-SNIP[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA, 2018. [11] BODLA N, SINGH B, CHELLAPPA R, et al. Soft-NMSimproving object detection with one line of code[C]//Proceedings of 2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy, 2017: 5562−5570. [12] LIU Songtao, HUANG Di, WANG Yunhong. Receptive field block net for accurate and fast object detection[C]// Proceedings of ECCV2018, 2018 [13] KIM S W, KOOK H K, SUN J Y, et al. Parallel feature pyramid network for object detection[C]//Proceedings of the 15th European Conference on Computer Vision-ECCV 2018. Munich, Germany, 2018: 239−256. [14] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Spatial pyramid pooling in deep convolutional networks [15] 第 2 期 赵文清,等:基于反卷积和特征融合的 SSD 小目标检测算法 ·315·
·316· 智能系统学报 第15卷 for visual recognition[J].IEEE transactions on pattern 作者简介: analysis and machine intelligence,2015,37(9): 赵文清,教授,博士,主要研究方 1904-1916. 向为人工智能与数据挖掘。发表学术 [16]ZHU Chenchen,HE Yihui,SAVVIDES M.Feature se- 论文50余篇。 lective anchor-free module for single-shot object detec- tion[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2019. [17刀郭川磊,何嘉.基于转置卷积操作改进的单阶段多边 框目标检测方法[J].计算机应用,2018,38(10): 周震东,硕土研究生,主要研究方 向为机器学习和基于深度学习的小目 2833-2838 标检测。 GUO Chuanlei,HE Jia.Improved single shot multibox detector based on the transposed convolution[J].Journal of computer applications,2018,38(10):2833-2838 [18]吴天舒,张志佳,刘云鹏,等.基于改进SSD的轻量化小 目标检测算法[.红外与激光工程,2018,47(7): 翟永杰,教授.博士,主要研究方 0703005. 向为模式识别与计算机视觉、机器学 WU Tianshu,ZHANG Zhijia,LIU Yunpeng,et al.A 习与人工智能等。参与省级以上科研 项目50余项。发表学术论文100余篇。 lightweight small object detection algorithm based on im- proved SSD[J].Infrared and laser engineering,2018, 47(7):0703005. 2020全球人工智能技术大会 The Global Artificial Intelligence Technology Conference(2020) 2020年7月25一26日,由中国人工智能学会主办的“2020全球人工智能技术大会”即将登陆杭州未来 科技城。“全球人工智能技术大会”创办于2016年,历经四载,已成为中国人工智能技术和产业领域规模最 大、影响力最强的专业会议之一。一年一届的大会立足当下、放眼全球,以国际化、尖端化、前瞻化的理念 及视角,不断勾勒人工智能发展蓝图与路径。 人工智能作为科技变革浪潮的新引擎,为中国经济向创新型经济转变提供了重要驱动力。百舸争流千 帆竞,短短数年,人工智能已融入全球各国的基本国家战略之中,成为产、学、研的热点。七月江南秀雅如 画,让我们相约杭州,共话人工智能的新格局。 会务咨询: 贾老师(微信同手机:13240274156)、邹老师(微信同手机:13121123883)
for visual recognition[J]. IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904–1916. ZHU Chenchen, HE Yihui, SAVVIDES M. Feature selective anchor-free module for single-shot object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2019. [16] 郭川磊, 何嘉. 基于转置卷积操作改进的单阶段多边 框目标检测方法 [J]. 计算机应用, 2018, 38(10): 2833–2838. GUO Chuanlei, HE Jia. Improved single shot multibox detector based on the transposed convolution[J]. Journal of computer applications, 2018, 38(10): 2833–2838. [17] 吴天舒, 张志佳, 刘云鹏, 等. 基于改进 SSD 的轻量化小 目标检测算法 [J]. 红外与激光工程, 2018, 47(7): 0703005. WU Tianshu, ZHANG Zhijia, LIU Yunpeng, et al. A lightweight small object detection algorithm based on improved SSD[J]. Infrared and laser engineering, 2018, 47(7): 0703005. [18] 作者简介: 赵文清,教授,博士,主要研究方 向为人工智能与数据挖掘。发表学术 论文 50 余篇。 周震东,硕士研究生,主要研究方 向为机器学习和基于深度学习的小目 标检测。 翟永杰,教授,博士,主要研究方 向为模式识别与计算机视觉、机器学 习与人工智能等。参与省级以上科研 项目 50 余项。发表学术论文 100 余篇。 2020 全球人工智能技术大会 The Global Artificial Intelligence Technology Conference(2020) 2020 年 7 月 25—26 日,由中国人工智能学会主办的“2020 全球人工智能技术大会”即将登陆杭州未来 科技城。“全球人工智能技术大会”创办于 2016 年,历经四载,已成为中国人工智能技术和产业领域规模最 大、影响力最强的专业会议之一。一年一届的大会立足当下、放眼全球,以国际化、尖端化、前瞻化的理念 及视角,不断勾勒人工智能发展蓝图与路径。 人工智能作为科技变革浪潮的新引擎,为中国经济向创新型经济转变提供了重要驱动力。百舸争流千 帆竞,短短数年,人工智能已融入全球各国的基本国家战略之中,成为产、学、研的热点。七月江南秀雅如 画,让我们相约杭州,共话人工智能的新格局。 会务咨询: 贾老师(微信同手机:13240274156)、邹老师(微信同手机:13121123883) ·316· 智 能 系 统 学 报 第 15 卷