正在加载图片...
第4期 董俊杰,等:基于反馈注意力机制和上下文融合的非模式实例分割 ·807· 观察表1在All regions下AR”和ARH的结果 下文注意模块,使网络能够学习到全局的语义依 可知,当物体处于部分遮挡或重度遮挡状态下, 赖关系,充分挖掘像素的空间相关性,在非模式 本文提出的方法对于像素的平均召回率仍然具有 实例分割的任务中,该方法能够有效帮助检测器 很大的提高,AR°从40.1%提高到44.3%,AR“从 仅仅从物体可见部分提供的线索去准确推断出物 22.5%提高到25.5%,分别具有4.2%和3%的收 体被遮挡部分的最可能外观特征,定性的可视化 益,这表明,通过反馈注意力机制的再学习和上 结果见图4。 (a)原图 (b)Ground truth (c)SLN (d)本文模型 图4在COCO-amodal数据集上非模式实例分割的定性结果 Fig.4 Qualitative results of amodal instance segmentation on coco-amodal dataset 与此同时,在Things only'”和“Stuff only”的 1.4%,具有0.6%的绝对收益,75%的相对收益。 情况下,本文算法无论是在AP还是AR,即使在 为了进一步证明本文提出方法的有效性,本 部分遮挡或重度遮挡的状态下,都表现出一致的 文对COCO-amodal测试集的一些图片进行定性 优势:在“Things only”时AP从9.6%提高到 分析,非模式实例分割的定性实验结果如图4所 16.3%,具有6.7%的绝对收益,69.8%的相对收 示,观察第1行的对比图可以看出,图中的“冰箱 益;同样地,在“Stuff only'”时AP从0.8%提高到 存在部分遮挡,SLN算法在预测被遮挡、不可见观察表 1 在 All regions 下 ARP 和 ARH 的结果 可知,当物体处于部分遮挡或重度遮挡状态下, 本文提出的方法对于像素的平均召回率仍然具有 很大的提高,ARP 从 40.1% 提高到 44.3%,ARH 从 22.5% 提高到 25.5%,分别具有 4.2% 和 3% 的收 益,这表明,通过反馈注意力机制的再学习和上 下文注意模块,使网络能够学习到全局的语义依 赖关系,充分挖掘像素的空间相关性,在非模式 实例分割的任务中,该方法能够有效帮助检测器 仅仅从物体可见部分提供的线索去准确推断出物 体被遮挡部分的最可能外观特征,定性的可视化 结果见图 4。 (a) 原图 (b) Ground truth (c) SLN (d) 本文模型 图 4 在 COCO-amodal 数据集上非模式实例分割的定性结果 Fig. 4 Qualitative results of amodal instance segmentation on coco-amodal dataset 与此同时,在“Things only”和“Stuff only”的 情况下,本文算法无论是在 AP 还是 AR,即使在 部分遮挡或重度遮挡的状态下,都表现出一致的 优势:在“Things only”时 AP 从 9.6% 提高到 16.3%,具有 6.7% 的绝对收益,69.8% 的相对收 益;同样地,在“Stuff only”时 AP 从 0.8% 提高到 1.4%,具有 0.6% 的绝对收益,75% 的相对收益。 为了进一步证明本文提出方法的有效性,本 文对 COCO-amodal 测试集的一些图片进行定性 分析,非模式实例分割的定性实验结果如图 4 所 示,观察第 1 行的对比图可以看出,图中的“冰箱” 存在部分遮挡,SLN 算法在预测被遮挡、不可见 第 4 期 董俊杰,等:基于反馈注意力机制和上下文融合的非模式实例分割 ·807·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有