正在加载图片...
第4期 杨慧,等:基于二进制生成对抗网络的视觉回环检测研究 ·681· 394 于视觉回环检测。该方法在模型训练时采用无监 0.035 督学习方式,训练集为互不相关的场景图片且无 300 0.030 任何标签数据。为了获得高区分度及低维度的无 0.025 监督二进制描述符,利用距离传播损失函数将高 岸200 维特征空间中的关系映射到低维空间,并且利用 0.020 二值化表示熵损失函数提高低维空间二进制特征 0.015 100 表示的多样性,进一步改善低维特征所带来的信 0.010 息损失问题。在NC数据集、CC数据集以及 0.005 KAIST数据集上对本文所提出的无监督二进制描 100 200 300 394 述符的有效性进行了验证,并和ORB、BRIEF 特征 SURF这3种人工特征描述符,以及AlexNet、 图12基于ORB的相似度矩阵 AMOSNet和HybridNet3种深度学习方法进行了 Fig.12 Similarity matrix of ORB 比较。结果表明,无监督二进制描述符在具有强 394 烈视角及外观变化的复杂场景下具有鲁棒性,性 0.025 能可以与有监督深度网络媲美。但无监督方法从 300 0.020 根本上避免了费时费力的有监督数据标注过程, 同时极大地节约了存储空间和计算资源,加快回 20 0.015 环检测的进程,在大规模开放场景的视觉 SLAM中具有较大价值。 0.010 00 参考文献: 0.005 [1]KONOLIGE K.AGRAWAL M.FrameSLAM:from 100 200 300 394 bundle adjustment to real-time visual mapping[J].IEEE 特征 transactions on robotics,2008,24(5):1066-1077. [2]张毅,沙建松.基于图优化的移动机器人视觉SLAM. 图13基于SURF的相似度矩阵 Fig.13 Similarity matrix of SURF 智能系统学报,2018,13(2):290-295. ZHANG Yi,SHA Jiansong.Visual-SLAM for mobile ro- 394 bot based on graph optimization[J].CAAI transactions on 0.07 intelligent systems,2018,13(2):290-295. 300 0.06 [3]HO K L,NEWMAN P.Detecting loop closure with scene 0.05 sequences[J].International journal of computer vision, 2007,74(3):261-286 200 0.04 8 [4]刘强,段富海,桑勇,等.复杂环境下视觉SLAM闭环检 0.03 测方法综述.机器人,2019,41(1):112-123,136 100 0.02 LIU Qiang,DUAN Fuhai.SANG Yong,et al.A survey of loop-closure detection method of visual SLAM in com- 0.01 plex environments[J].Robot,2019,41(1):112-123,136. [5]LOWE D G.Object recognition from local scale-invariant 100 200 300 394 特征 features[C]//Proceedings of the 17th IEEE International Conference on Computer Vision.Kerkyra.Greece,2002: 图14基于无监督二进制描述符的相似度矩阵 1150-1157 Fig.14 Similarity matrix of unsupervised binary [6]BAY H,TUYTELAARS T,VAN GOOL L.SURF: descriptor speeded up robust features[C]//Computer vision-ECCV 2006.Graz,Austria..2006:404-417. 4结束语 [7]SIVIC J,ZISSERMAN A.Video Google:A text retrieval 针对现有的视觉回环检测方法大多依赖有监 approach to object matching in videos[C]//Proceedings of the 9th IEEE International Conference on Computer Vis- 督学习且特征向量维度较高,占用较大存储空间 ion.Nice,France,2003:1470-1477. 的问题,本文受生成对抗网络的启发,提出了一 [8]CHEN Zetao,LAM O,JACOBSON A,et al.Convolution- 种无监督二进制描述符,并将其与BoVW结合用 al neural network-based place recognition[C]//Australasi-0.035 0.030 0.025 0.020 0.015 0.010 0.005 0 100 100 200 200 300 300 394 394 特征 特征 图 12 基于 ORB 的相似度矩阵 Fig. 12 Similarity matrix of ORB 0.025 0.020 0.015 0.010 0.005 0 0 100 100 200 200 300 300 394 394 特征 特征 图 13 基于 SURF 的相似度矩阵 Fig. 13 Similarity matrix of SURF 0.07 0.06 0.05 0.04 0.03 0.02 0.01 0 0 100 100 200 200 300 300 394 394 特征 特征 图 14 基于无监督二进制描述符的相似度矩阵 Fig. 14 Similarity matrix of unsupervised binary descriptor 4 结束语 针对现有的视觉回环检测方法大多依赖有监 督学习且特征向量维度较高,占用较大存储空间 的问题,本文受生成对抗网络的启发,提出了一 种无监督二进制描述符,并将其与 BoVW 结合用 于视觉回环检测。该方法在模型训练时采用无监 督学习方式,训练集为互不相关的场景图片且无 任何标签数据。为了获得高区分度及低维度的无 监督二进制描述符,利用距离传播损失函数将高 维特征空间中的关系映射到低维空间,并且利用 二值化表示熵损失函数提高低维空间二进制特征 表示的多样性,进一步改善低维特征所带来的信 息损失问题。在 NC 数据集、CC 数据集以及 KAIST 数据集上对本文所提出的无监督二进制描 述符的有效性进行了验证,并和 ORB、BRIEF、 SURF 这 3 种人工特征描述符,以及 AlexNet、 AMOSNet 和 HybridNet 3 种深度学习方法进行了 比较。结果表明,无监督二进制描述符在具有强 烈视角及外观变化的复杂场景下具有鲁棒性,性 能可以与有监督深度网络媲美。但无监督方法从 根本上避免了费时费力的有监督数据标注过程, 同时极大地节约了存储空间和计算资源,加快回 环检测的进程,在大规模开放场景的视 觉 SLAM 中具有较大价值。 参考文献: KONOLIGE K, AGRAWAL M. FrameSLAM: from bundle adjustment to real-time visual mapping[J]. IEEE transactions on robotics, 2008, 24(5): 1066–1077. [1] 张毅, 沙建松. 基于图优化的移动机器人视觉 SLAM[J]. 智能系统学报, 2018, 13(2): 290–295. ZHANG Yi, SHA Jiansong. Visual-SLAM for mobile ro￾bot based on graph optimization[J]. CAAI transactions on intelligent systems, 2018, 13(2): 290–295. [2] HO K L, NEWMAN P. Detecting loop closure with scene sequences[J]. International journal of computer vision, 2007, 74(3): 261–286. [3] 刘强, 段富海, 桑勇, 等. 复杂环境下视觉 SLAM 闭环检 测方法综述 [J]. 机器人, 2019, 41(1): 112–123, 136. LIU Qiang, DUAN Fuhai, SANG Yong, et al. A survey of loop-closure detection method of visual SLAM in com￾plex environments[J]. Robot, 2019, 41(1): 112–123, 136. [4] LOWE D G. Object recognition from local scale-invariant features[C]//Proceedings of the 17th IEEE International Conference on Computer Vision. Kerkyra, Greece, 2002: 1150−1157. [5] BAY H, TUYTELAARS T, VAN GOOL L. SURF: speeded up robust features[C]//Computer vision-ECCV 2006. Graz, Austria, 2006: 404−417. [6] SIVIC J, ZISSERMAN A. Video Google: A text retrieval approach to object matching in videos[C]//Proceedings of the 9th IEEE International Conference on Computer Vis￾ion. Nice, France, 2003: 1470−1477. [7] CHEN Zetao, LAM O, JACOBSON A, et al. Convolution￾al neural network-based place recognition[C]//Australasi- [8] 第 4 期 杨慧,等:基于二进制生成对抗网络的视觉回环检测研究 ·681·
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有