正在加载图片...
·808· 智能系统学报 第16卷 部分时存在一定的欠拟合问题,本文提出的方法 CD=4a1 kk+1) 通过建立丰富的上下文依赖关系,获取全局语义 6N (5) 信息,实现了更准确的预测;从第3行对比图可 由式(⑤)计算出临界值域CD后,画出Friedman 知,在复杂的场景情况下,SLN算法对小目标分 检验结果图,如图5所示。其中,中心圆点表示每个 割存在一定程度的漏分割现象,如图中有的“人” 算法的平均序值,以圆点为中心的横线段表示临界 没有检测出来,并且这些样本属于小目标,本文 值域的大小。Friedman检验结果表示,如果两种 的方法由于捕获了像素级的全局语义信息,加强 方法的横线段有较多重叠,则表明两种算法的差 了上下文信息的融合,对于小目标对象的漏分 异性较小,否则,说明两种算法具有显著的差异性。 割、分割不准确的情况有了显著改善,不仅检测 OURS +ARCNN 到图像中的小目标,同时对小目标对象的遮挡部 ◆AmodalMask 分也能合理预测,使得分割质量得到大幅提升。 SLN *2 ■OURS 3.5统计检验分析 CD=3.522 3.33 ARCNN+ 为了对比不同的算法在数据集上的性能差 3.67 异,本文采用Friedman检验来分析本文提出的算 AmodalMask ◆ 法是否具有显著性。本文在COCO-amodal数据 ARCNN 集上对该方法进行了充分的实验,表1从Alre- gions、Things only和Stuff only3个维度分析了不 -101234567 同算法之间的性能差异。本文把表1转换成按 图5 Friedman检验结果 AP从高到低排序的排序表,最后获得不同方法 Fig.5 Graph of Friedman test result 在COCO-amodal数据集不同维度上的排序情况, 观察图5可知,直线AmodalMask与AR- 结果如表2所示。 CNN++重叠的部分比例最高,说明了算法Amod- alMask和ARCNN+没有显著差别;直线OURS 表2不同算法在C0C0-amodal测试集不同维度的 AP排序表 与直线SLN有较多重叠部分,直线OURS与直线 Table 2 AP ranking tables of different algorithms in dif- AmodalMask、直线ARCNN++具有较少的重叠部 ferent dimensions on COCO-amodal test set 分,直线OURS与直线ARCNN基本无重叠部 算法 All regions Things only Stuff only平均序值r 分。也就是说本文所提出的算法仍然优于其他 AmodalMask 4 3.67 4种算法,显著优于算法ARCNN,这也验证了表1 ARCNN 5 J 的实验结果。 ARCNN++ 3 4 3.33 4结束语 SLN 2 2 2 本文提出一个反馈注意力机制的特征金字塔 OURS 1 结构和上下文注意模块的方法并将其应用到非模 在获得不同算法的AP排序表之后,采用 式实例分割任务中。该方法在特征金字塔结构基 Frie-dman检验来判断这些算法是否性能都相同, 础上引入反馈连接进行再学习,有效建立起通道 同时做出假设“所有的算法性能相同”。变量τF 之间的远程上下文依赖关系,并结合像素上下文 服从自由度为(k-1)和(k-1)N-1)的F分布,计 注意力模块学习特征的空间相关性,捕获精细的 算方法为 空间细节,充分利用全局信息。在SLN网络的基 12W k(k+1)2 础上,加入本文提出的方法构成新的网络结构, Te= k(k+1) 通过在COCO-amodal数据集上训练和测试,实验 (4) (N-1)Te 结果表明,本文方法能对物体被遮挡、不可见部 TF=N(k-1)-Tx 分的最可能外观做出合理预测,并改善了其他方 通过式(4)计算得到的变量值与临界值 法中存在的漏分割、分割不准确的情况,但离实 F=os进行比较,假设“所有的算法性能相同”被拒 时处理仍有较大差距,后续将对此进行优化。 绝,说明了不同算法之间的性能显著不同,其中 参考文献: F=0s=3.8379,k=5,N=3。为了进一步区分各算 法,采用Nemenyi检验作为“后续检验”。Ne- [1]SIMONYAN K,ZISSERMAN A.Very deep convolution- menyi检验临界值域CD的计算公式为 al networks for large-scale image recognition[EB/OL].(20部分时存在一定的欠拟合问题,本文提出的方法 通过建立丰富的上下文依赖关系,获取全局语义 信息,实现了更准确的预测;从第 3 行对比图可 知,在复杂的场景情况下,SLN 算法对小目标分 割存在一定程度的漏分割现象,如图中有的“人” 没有检测出来,并且这些样本属于小目标,本文 的方法由于捕获了像素级的全局语义信息,加强 了上下文信息的融合,对于小目标对象的漏分 割、分割不准确的情况有了显著改善,不仅检测 到图像中的小目标,同时对小目标对象的遮挡部 分也能合理预测,使得分割质量得到大幅提升。 3.5 统计检验分析 为了对比不同的算法在数据集上的性能差 异,本文采用 Friedman 检验来分析本文提出的算 法是否具有显著性。本文在 COCO-amodal 数据 集上对该方法进行了充分的实验,表 1 从 All re￾gions、Things only 和 Stuff only 3 个维度分析了不 同算法之间的性能差异。本文把表 1 转换成按 AP 从高到低排序的排序表,最后获得不同方法 在 COCO-amodal 数据集不同维度上的排序情况, 结果如表 2 所示。 表 2 不同算法在 COCO-amodal 测试集不同维度的 AP 排序表 Table 2 AP ranking tables of different algorithms in dif￾ferent dimensions on COCO-amodal test set 算法 All regions Things only Stuff only 平均序值 ri AmodalMask 4 4 3 3.67 ARCNN 5 5 5 5 ARCNN++ 3 3 4 3.33 SLN 2 2 2 2 OURS 1 1 1 1 τF (k−1) (k−1)(N −1) F 在获得不同算法的 AP 排序表之后,采用 Frie-dman 检验来判断这些算法是否性能都相同, 同时做出假设“所有的算法性能相同”。变量 服从自由度为 和 的 分布,计 算方法为 τχ 2= 12N k(k+1)   ∑k i=1 r 2 i − k(k+1)2 4   τF = (N −1)τχ 2 N(k−1)−τχ 2 (4) τF Fα=0.05 Fα=0.05= 3.837 9 k = 5 N = 3 CD 通过式 (4) 计算得到的变量值 与临界值 进行比较,假设“所有的算法性能相同”被拒 绝,说明了不同算法之间的性能显著不同,其中 , , 。为了进一步区分各算 法,采用 Nemenyi 检验作为“后续检验”。Ne￾menyi 检验临界值域 的计算公式为 CD = qα √ k(k+1) 6N (5) 由式 (5) 计算出临界值域 CD 后,画出 Friedman 检验结果图,如图 5 所示。其中,中心圆点表示每个 算法的平均序值,以圆点为中心的横线段表示临界 值域的大小。Friedman 检验结果表示,如果两种 方法的横线段有较多重叠,则表明两种算法的差 异性较小,否则,说明两种算法具有显著的差异性。 1 2 3.33 3.67 5 SLN ARCNN AmodalMask ARCNN++ OURS CD=3.522 −1 0 1 2 3 4 5 6 7 OURS SLN ARCNN++ AmodalMask ARCNN 图 5 Friedman 检验结果 Fig. 5 Graph of Friedman test result 观察图 5 可知,直线 AmodalMask 与 AR￾CNN++重叠的部分比例最高,说明了算法 Amod￾alMask 和 ARCNN++没有显著差别;直线 OURS 与直线 SLN 有较多重叠部分,直线 OURS 与直线 AmodalMask、直线 ARCNN++具有较少的重叠部 分,直线 OURS 与直线 ARCNN 基本无重叠部 分。也就是说本文所提出的算法仍然优于其他 4 种算法,显著优于算法 ARCNN,这也验证了表 1 的实验结果。 4 结束语 本文提出一个反馈注意力机制的特征金字塔 结构和上下文注意模块的方法并将其应用到非模 式实例分割任务中。该方法在特征金字塔结构基 础上引入反馈连接进行再学习,有效建立起通道 之间的远程上下文依赖关系,并结合像素上下文 注意力模块学习特征的空间相关性,捕获精细的 空间细节,充分利用全局信息。在 SLN 网络的基 础上,加入本文提出的方法构成新的网络结构, 通过在 COCO-amodal 数据集上训练和测试,实验 结果表明,本文方法能对物体被遮挡、不可见部 分的最可能外观做出合理预测,并改善了其他方 法中存在的漏分割、分割不准确的情况,但离实 时处理仍有较大差距,后续将对此进行优化。 参考文献: SIMONYAN K, ZISSERMAN A. Very deep convolution￾al networks for large-scale image recognition[EB/OL]. (20 [1] ·808· 智 能 系 统 学 报 第 16 卷
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有