当前位置:高等教育资讯网  >  中国高校课件下载中心  >  大学文库  >  浏览文档

机器感知与模式识别:室内环境下移动机器人三维视觉SLAM编辑部

资源类别:文库,文档格式:PDF,文档页数:5,文件大小:5.23MB,团购合买
点击下载完整版文档(PDF)

第10卷第4期 智能系统学报 Vol.10 No.4 2015年8月 CAAI Transactions on Intelligent Systems Aug.2015 D0:10.3969/j.issn.1673-4785.201504003 网s络出版地址:http:/www.cnki.net/kcms/detail/23.1538.TP.20150630.1541.001.html 室内环境下移动机器人三维视觉SLAM 张毅,陈起,罗元2 (1.重庆邮电大学自动化学院,重庆400065:2.重庆邮电大学光电工程学院,重庆400065) 摘要:在移动机器人三维视觉SLAM中,针对点云配准过程存在的匹配误差较大、效率低下的问题,提出一种分层 式点云配准策略。利用RANSAC算法对可能存在的误匹配点进行剔除完成初始配准,对所得内点进行最小二乘算 法下机器人相邻位姿的估计,并采用改进的CP算法完成精确配准,最后采用g0优化方法对移动机器人位姿进行 优化。针对点云拼接结果中存在重复点过多以及空洞的问题,引入基于体积空间融合的匹配算法对空洞进行填补。 实验验证了本文所提方法能够准确重构出环境三维模型和精确估计出移动机器人的运动轨迹,并有效去除拼接结 果中的重复点,填补了空洞。 关键词:移动机器人;Kinect相机:同时定位与地图构建;点云配准:轨迹跟踪:机器人导航;鲁棒性 中图分类号:TP24文献标志码:A文章编号:1673-4785(2015)04-0615-05 中文引用格式:张毅,陈起,罗元.室内环境下移动机器人三维视觉SLAM[J].智能系统学报,2015,10(4):615-619. 英文引用格式:ZHANG Yi,CHEN Qi,,LUO Yuan.Three dimensional visual SLAM for mobile robot in indoor environment[J]. CAAI Transactions on Intelligent Systems,2015,10(4):615-619. Three dimensional visual SLAM for mobile robots in indoor environments ZHANG Yi',CHEN Qi',LUO Yuan? (1.Automation College,Chongqing University of Posts and Telecommunications,Chongqing 400065,China;2.College of Electroning Engineering College,Chongqing University of Posts and Telecommunications,Chongqing 400065,China) Abstract:In this paper,it aiming at the problems of large matching error and inefficiency in the process of point cloud registration in mobile robots 3D visual SLAM,a hierarchical point cloud registration strategy is proposed.It completes the initial registration by eliminating possible false matching points by RANSAC algorithm and then esti- mates the robot adjacent pose using the least square algorithm of interior points.Meanwhile,accurate registration is completed by the improved ICP algorithm and finally the mobile robot pose is optimized by the g0 optimization method.Addressing the problem of too much repeated points and hole existing in point cloud splicing results,a matching algorithm based on volume space fusion is introduced to fill the hole.Experimental results obtained dem- onstrated that the proposed method can accurately reconstruct the 3D model and estimate the trajectory of the mobile robot,and can effectively remove the repeated points and fill the hole. Keywords:mobile robot;Kinect camera;SLAM;point cloud registration;trajectory tracking;robot navigation;robustness 近年来,移动机器人同时定位与地图构建已经 导航具有重要意义。在三维环境建模中最常用的方 成为机器人领域研究的热点。过去,国内外学者 式是利用范围传感器获得的深度点云来表示环境模 对移动机器人二维SLAM进行了大量研究,然而在 型。然而,这种方法大多利用精度高、价格昂贵 二维SLAM中丢失了很多有价值的形状和几何信 的三维激光扫描器。Kinect具有廉价、方便的特 息。三维SLAM能够充分利用环境三维属性,精确 点[]。近年来,将Kinect应用于移动机器人三维 描述出局部环境形状以及物体的几何外形,因而移 SLAM已成为机器人领域研究的新热点,并取得了 动机器人三维SLAM对于全面实现移动机器人精确 大量研究成果。文献[4]提出一种室内环境下的三 维环境建模方法,基于GPU编程的SFT算法提高 收稿日期:2015-04-07.网络出版日期:2015-06-30. 了系统的运算效率,且能实现三维环境的建立,但效 基金项目:国家自然科学基金资助项目(51075420) 通信作者:陈起.E-mail:chengisansan(@163.com. 果欠佳且无法进行位姿估计。Henry)等人提出了

第 10 卷第 4 期 智 能 系 统 学 报 Vol.10 №.4 2015 年 8 月 CAAI Transactions on Intelligent Systems Aug. 2015 DOI:10.3969 / j.issn.1673⁃4785.201504003 网络出版地址:http: / / www.cnki.net / kcms/ detail / 23.1538.TP.20150630.1541.001.html 室内环境下移动机器人三维视觉 SLAM 张毅1 ,陈起1 ,罗元2 (1.重庆邮电大学 自动化学院,重庆 400065;2.重庆邮电大学 光电工程学院,重庆 400065) 摘 要:在移动机器人三维视觉 SLAM 中,针对点云配准过程存在的匹配误差较大、效率低下的问题,提出一种分层 式点云配准策略。 利用 RANSAC 算法对可能存在的误匹配点进行剔除完成初始配准,对所得内点进行最小二乘算 法下机器人相邻位姿的估计,并采用改进的 ICP 算法完成精确配准,最后采用 g 2 0 优化方法对移动机器人位姿进行 优化。 针对点云拼接结果中存在重复点过多以及空洞的问题,引入基于体积空间融合的匹配算法对空洞进行填补。 实验验证了本文所提方法能够准确重构出环境三维模型和精确估计出移动机器人的运动轨迹,并有效去除拼接结 果中的重复点,填补了空洞。 关键词:移动机器人;Kinect 相机;同时定位与地图构建;点云配准;轨迹跟踪;机器人导航;鲁棒性 中图分类号: TP24 文献标志码:A 文章编号:1673⁃4785(2015)04⁃0615⁃05 中文引用格式:张毅,陈起,罗元. 室内环境下移动机器人三维视觉 SLAM[J]. 智能系统学报, 2015, 10(4): 615⁃619. 英文引用格式:ZHANG Yi, CHEN Qi, LUO Yuan. Three dimensional visual SLAM for mobile robot in indoor environment[ J]. CAAI Transactions on Intelligent Systems, 2015, 10(4): 615⁃619. Three dimensional visual SLAM for mobile robots in indoor environments ZHANG Yi 1 ,CHEN Qi 1 ,LUO Yuan 2 (1.Automation College, Chongqing University of Posts and Telecommunications, Chongqing 400065, China; 2.College of Electroning Engineering College, Chongqing University of Posts and Telecommunications, Chongqing 400065, China) Abstract:In this paper, it aiming at the problems of large matching error and inefficiency in the process of point cloud registration in mobile robots 3D visual SLAM, a hierarchical point cloud registration strategy is proposed. It completes the initial registration by eliminating possible false matching points by RANSAC algorithm and then esti⁃ mates the robot adjacent pose using the least square algorithm of interior points. Meanwhile, accurate registration is completed by the improved ICP algorithm and finally the mobile robot pose is optimized by the g 2 0 optimization method. Addressing the problem of too much repeated points and hole existing in point cloud splicing results, a matching algorithm based on volume space fusion is introduced to fill the hole. Experimental results obtained dem⁃ onstrated that the proposed method can accurately reconstruct the 3D model and estimate the trajectory of the mobile robot, and can effectively remove the repeated points and fill the hole. Keywords:mobile robot; Kinect camera; SLAM; point cloud registration; trajectory tracking; robot navigation; robustness 收稿日期:2015⁃04⁃07. 网络出版日期:2015⁃06⁃30. 基金项目:国家自然科学基金资助项目(51075420). 通信作者:陈起. E⁃mail:chenqisansan@ 163.com. 近年来,移动机器人同时定位与地图构建已经 成为机器人领域研究的热点[1] 。 过去,国内外学者 对移动机器人二维 SLAM 进行了大量研究,然而在 二维 SLAM 中丢失了很多有价值的形状和几何信 息。 三维 SLAM 能够充分利用环境三维属性,精确 描述出局部环境形状以及物体的几何外形,因而移 动机器人三维 SLAM 对于全面实现移动机器人精确 导航具有重要意义。 在三维环境建模中最常用的方 式是利用范围传感器获得的深度点云来表示环境模 型[2] 。 然而,这种方法大多利用精度高、价格昂贵 的三维激光扫描器。 Kinect 具有廉价、方便的特 点[3] 。 近年来,将 Kinect 应用于移动机器人三维 SLAM 已成为机器人领域研究的新热点,并取得了 大量研究成果。 文献[4]提出一种室内环境下的三 维环境建模方法,基于 GPU 编程的 SIFT 算法提高 了系统的运算效率,且能实现三维环境的建立,但效 果欠佳且无法进行位姿估计。 Henry [5] 等人提出了

·616 智能系统学报 第10卷 一个基于Kinect的交互式的三维模型重建系统,但 了g0优化方法对机器人位姿进行优化,实验验证 是该系统依靠关键帧的选取,计算量大、时间复杂度 了本文方法的可行性和有效性。 高,难以用于移动机器人三维地图在线创建。针对 上述问题,本文提出了一种室内环境下移动机器人 1 系统结构 三维视觉SLAM方法。针对点云配准过程存在的匹 本文提出的室内环境下移动机器人三维视觉 配误差较大、效率低下的问题,提出一种分层式点云 SLAM系统的总体框架如图1所示,主要分为特征 配准策略。同时引入基于体积融合的匹配算法完成 点检测与匹配、Kinect标定与点云生成、分层式点云 精确配准,有效的去除了拼接结果中的重复点,采用 配准3部分。 彩色图像 SURT 特征点检 测与匹配 剔除 RANS 无匹 ICP- 位姿 AC算 配点 TSDP 优化 位姿轨迹 深度图像 法完成 及环境三 完成精 生成 3D点 点云初 维地图 确配准 Kinect标定 点云 坐标 始配准 与数据对准 RGB 数据 图1室内环境下移动机器人三维视觉SLAM总体框架图 Fig.1 Total frame of three dimensional visual SLAM for mobile robot in indoor environment 2特征点检测与匹配 (x4,y),投射到三维空间点p(x,y,z),其坐标计算 如下: 经典的特征点检测算法包括Harrist6]、SFT】 (xu-cd)x depth(xa,ya) (2) SURF)算法等。经综合考虑为获得鲁棒性、稳定性 fa 更好的特征点检测结果,本文采用具有旋转和尺度 不变性且速度较快的SURF算法。SURF特征点提 y=(-Sa)×depth(x,a) (3) fyd 取过程主要包括特征点检测、特征点主方向选取、生 z=depth(xa,ya) (4) 成特征描述子。判断基于描述的特征点是否匹配, 式中:P,=PT为当前像素点深度值,c和c为图 可通过计算欧式距离来实现,设匹配图像的特征点 像光心坐标,f和f为深度相机焦距,其中ff均 集合分别为X和Y。欧式距离可以描述为 可由标定得到。 D(X,Y)=IX-Y‖= (X:-Y)"(1) 4分层式点云配准 Ai=1 欧式距离越小表示特征点相似程度越高,本文 4.1 RANSAC算法粗匹配 在匹配过程中采用了最大紧邻向量匹配方法,即通 本文采用RANSAC算法进行特征点的粗匹配, 过比较特征点集合中的每一个特征点与特征点集合 以使2组点集的公共区域能够大致重合,为下一步 中各特征点的欧式距离,D,和D,分别代表最近和 精确匹配做准备。算法设定一个容许误差将所有的 次近的欧式距离,若D,≤aD,(α为设定的最近次近 匹配点对分为内点和外点。本文实验中设定的阈值 距离比值,本文设定=0.60),则认为两个特征点 d=3.00舍去误差大于d的匹配点对(外点)。为了 匹配,反之丢弃该点。 获得摄像机位姿的变化,本文采用了最小二乘逼近 的方法[山。利用算法所得内点进行最小二乘算法 3 标定与点云生成 下机器人相邻位姿的估计。摄像机第i时刻的位姿 为获取Kinect的彩色与深度相机的内参数矩 P,相对于第j时刻的摄像机位姿P,的转换关系为 阵以及彩色与深度相机之间的刚体变换,减小深度 P,=PT其中T为刚性变换矩阵: 图像与红外图像之间存在的漂移),需要对Kinect T= 「R3x33x1 (5) 进行标定,本文采用文献[l0]标定方法对Kinect进 01 行标定。在完成Kinect对准校正后,可根据图像中 式中:R3x3为旋转矩阵;3x1为平移矩阵。对于移动 任意一点对应的深度值得到该点三维坐标,进而生 机器人同步定位与地图构建,可通过下式获得各时 成三维彩色点云数据。给定任意深度图像像素点 刻数据相对于初始时刻的变换矩阵:

一个基于 Kinect 的交互式的三维模型重建系统,但 是该系统依靠关键帧的选取,计算量大、时间复杂度 高,难以用于移动机器人三维地图在线创建。 针对 上述问题,本文提出了一种室内环境下移动机器人 三维视觉 SLAM 方法。 针对点云配准过程存在的匹 配误差较大、效率低下的问题,提出一种分层式点云 配准策略。 同时引入基于体积融合的匹配算法完成 精确配准,有效的去除了拼接结果中的重复点,采用 了 g 2 0 优化方法对机器人位姿进行优化,实验验证 了本文方法的可行性和有效性。 1 系统结构 本文提出的室内环境下移动机器人三维视觉 SLAM 系统的总体框架如图 1 所示,主要分为特征 点检测与匹配、Kinect 标定与点云生成、分层式点云 配准 3 部分。 图 1 室内环境下移动机器人三维视觉 SLAM 总体框架图 Fig. 1 Total frame of three dimensional visual SLAM for mobile robot in indoor environment 2 特征点检测与匹配 经典的特征点检测算法包括 Harris [6] 、SIFT [7] 、 SURF [8]算法等。 经综合考虑为获得鲁棒性、稳定性 更好的特征点检测结果,本文采用具有旋转和尺度 不变性且速度较快的 SURF 算法。 SURF 特征点提 取过程主要包括特征点检测、特征点主方向选取、生 成特征描述子。 判断基于描述的特征点是否匹配, 可通过计算欧式距离来实现,设匹配图像的特征点 集合分别为 X 和 Y。 欧式距离可以描述为 D(X,Y) = ‖X - Y‖ = ∑ d i = 1 (Xi - Yi) w (1) 欧式距离越小表示特征点相似程度越高,本文 在匹配过程中采用了最大紧邻向量匹配方法,即通 过比较特征点集合中的每一个特征点与特征点集合 中各特征点的欧式距离, D1 和 D2 分别代表最近和 次近的欧式距离,若 D1 ≤ αD2(α 为设定的最近次近 距离比值,本文设定 α = 0.60), 则认为两个特征点 匹配,反之丢弃该点。 3 标定与点云生成 为获取 Kinect 的彩色与深度相机的内参数矩 阵以及彩色与深度相机之间的刚体变换,减小深度 图像与红外图像之间存在的漂移[9] ,需要对 Kinect 进行标定,本文采用文献[10]标定方法对 Kinect 进 行标定。 在完成 Kinect 对准校正后,可根据图像中 任意一点对应的深度值得到该点三维坐标,进而生 成三维彩色点云数据。 给定任意深度图像像素点 (xd ,yd ),投射到三维空间点 p(x,y,z),其坐标计算 如下: x = (xd - cxd ) × depth(xd ,yd ) f xd (2) y = (xd - cyd ) × depth(xd ,yd ) f yd (3) z = depth(xd ,yd ) (4) 式中: Pj = PiT j i 为当前像素点深度值,cxd和 cyd为图 像光心坐标,f xd和 f yd为深度相机焦距,其中 f xd 、f yd均 可由标定得到。 4 分层式点云配准 4.1 RANSAC 算法粗匹配 本文采用 RANSAC 算法进行特征点的粗匹配, 以使 2 组点集的公共区域能够大致重合,为下一步 精确匹配做准备。 算法设定一个容许误差将所有的 匹配点对分为内点和外点。 本文实验中设定的阈值 d = 3.00 舍去误差大于 d 的匹配点对(外点)。 为了 获得摄像机位姿的变化,本文采用了最小二乘逼近 的方法[11] 。 利用算法所得内点进行最小二乘算法 下机器人相邻位姿的估计。 摄像机第 i 时刻的位姿 Pi 相对于第 j 时刻的摄像机位姿 Pj 的转换关系为 Pj =PiT j i 其中 T j i 为刚性变换矩阵: T j i = R3×3 t 3×1 0 1 é ë ê ê ù û ú ú (5) 式中: R3×3 为旋转矩阵; t 3×1 为平移矩阵。 对于移动 机器人同步定位与地图构建,可通过下式获得各时 刻数据相对于初始时刻的变换矩阵: ·616· 智 能 系 统 学 报 第 10 卷

第4期 张毅,等:室内环境下移动机器人三维视觉SLAM ·617. T。=T0*T…T-1 (6) 文引入了基于体积空间融合的匹配算法。算法主要 4.2改进的ICP算法精确配准 思想是在对点云进行融合时,建立包含全部帧的一 传统的ICP算法的基本原理利用最小二乘的优 个立方体栅格来表示三维空间,以一定的分辨率来 化思想通过计算使函数(7)中的R和T最小化。 划分立方体为空间的像素点。每一个点记录了到物 N 体模型表面的距离如图2所示,使用正负来表示表 fR,T)=∑IQ.-rS,-TI2 (7) i=1 面的被遮挡面和可见面,而过零点就代表是表面上 式中:N为对应点对的数量,R为3×3的旋转矩阵, 的点。然后依次对每一帧数据进行处理,当有新的 T为三维的平移向量,S,和Q.分别为初始和目标数 数据加入时由式(10)和式(11)进行处理,通过累加 据点集。ICP匹配算法是基于两片点云是完全重合 将各帧数据融合起来,最后空间体中的零值像素即 这一假设,因此,理论上总是能搜索到最近点。但是 为最后的曲面上的点。 在实际应用中,两片点云之间只有部分是重合的,因 单帧 此,在实际应用中ICP匹配算法容易陷入局部最优, 曲面 甚至不能收敛,要对ICP算法的搜索策略进行改进。 空间体 视线 本文采用了点到切平面的最近搜索算法。另 X 外,在初值的选取上本文采用了阈值法,利用欧氏距 近 远 离阈值和方向向量阈值,提高了初值的匹配准确度。 欧氏距离阈值法可剔除噪声点,提高初值选择成功 相机✉ 中 率。设有点云S和Q,对S中的一个点s,搜索Q中 视线 与s:欧氏距离最近的3个点,分别为91、92和93。 到曲面的 X 距离 若满足s,-9:≤T,则为正确的匹配点,反之为误 、过零点 新过 零点 匹配点予以剔除。式中T为距离超出阈值,经过欧 图2基于体积空间的点云融合 氏距离阈值可基本别除点云数据的噪声点。然后结 Fig.2 Point cloud integration based on space 合方向向量夹角判断是否为对应点,提高初值选择 的正确率。若、9:为一对正确的匹配点,在满足 式(7)的基础上还应当满足下式: D1(=(x)D.()+W(x)D(x -(10) W(x)+W:+(x) ni x ngi arccos×np ≤0 (8) W+1(x)=W(x)+W+(x) (11) Erπ(d)=d2×0.0035 (12) 式中,nan分别为s:和9:所在曲面的法向量,0为 设定的方向向量夹角阈值。经上述分析,本文改进 w(x)= x-x· (13) Err(x) 的ICP算法步骤如下: 式中:i表示栅格距离值,Eπ(d)为传感器误差函 1)在S中选择初始点集s和。 数,x·为单帧曲面上的点到相机中心距离。算法使 2)使用欧氏距离阈值法在目标点集Q中求出 用权重值进行融合,且具有最小二乘优化性质,因而 与sm最近的点集qm、50和q0构成对应点集。 对传感器的噪声起到了一定的抑制作用。 3)应用方向向量阈值法选定点集s0和90,运 4.4位姿优化 算初值点集s1和91。 在位姿转换计算中通常会存在误差累计,为此 4)应用SVD法求得点集s1和91之间的旋转 采用了g0优化方法,误差函数F(x)定义如下: 矩阵R和平移矢量T。 5)根据式s2=R1s1+T,计算数据点集s经过 F(X)=∑e(x步,g)'D,e(xyg)(14) (ij)eC 一次坐标变换后所得到的数据点集s2,然后重复步 X·=argminF(x) (15) 骤3)~5),直到满足式(9): 式中:x:表示第i时刻的机器人位姿,也称g0为图 [d4-d+1<e 中的一个点,表示和x两点之间的约束,e(x.. N (9) )为x:和x,组成的边所产生的向量误差函数,代表 ,19肚-5法2 x:和x满足约束条件z:的程度,当它的值为0时,x, 式中:ε表示的是大于零的阈值,判断迭代是否收 和x,完全满足匹配约束。 敛,收敛则迭代结束。 5实验结果及分析 4.3基于体积空间融合的匹配算法 传统ICP算法存在的一个问题是直接融合两帧 5.1实验平台 点云会造成融合后的点云中出现冗余点。因此,本 本文实验平台分为数据采集端和处理端两部

T k 0 = T 1 0∗T 2 1…T k k-1 (6) 4.2 改进的 ICP 算法精确配准 传统的 ICP 算法的基本原理利用最小二乘的优 化思想通过计算使函数(7)中的 R 和 T 最小化。 f(R,T) = ∑ N i = 1 ‖Qi - RSi - T‖2 (7) 式中: N 为对应点对的数量,R 为 3×3 的旋转矩阵, T 为三维的平移向量, Si 和 Qi 分别为初始和目标数 据点集。 ICP 匹配算法是基于两片点云是完全重合 这一假设,因此,理论上总是能搜索到最近点。 但是 在实际应用中,两片点云之间只有部分是重合的,因 此,在实际应用中 ICP 匹配算法容易陷入局部最优, 甚至不能收敛,要对 ICP 算法的搜索策略进行改进。 本文采用了点到切平面的最近搜索算法。 另 外,在初值的选取上本文采用了阈值法,利用欧氏距 离阈值和方向向量阈值,提高了初值的匹配准确度。 欧氏距离阈值法可剔除噪声点,提高初值选择成功 率。 设有点云 S 和 Q,对 S 中的一个点 si ,搜索 Q 中 与 si 欧氏距离最近的 3 个点,分别为 q1 、 q2 和 q3 。 若满足 si - qi ≤ T ,则为正确的匹配点,反之为误 匹配点予以剔除。 式中 T 为距离超出阈值,经过欧 氏距离阈值可基本剔除点云数据的噪声点。 然后结 合方向向量夹角判断是否为对应点,提高初值选择 的正确率。 若 si 、 qi 为一对正确的匹配点,在满足 式(7)的基础上还应当满足下式: arccos nsi × nqi nsi × nqi ≤ θ (8) 式中, nsi、nqi 分别为 si 和 qi 所在曲面的法向量,θ 为 设定的方向向量夹角阈值。 经上述分析,本文改进 的 ICP 算法步骤如下: 1) 在 S 中选择初始点集 si0 。 2) 使用欧氏距离阈值法在目标点集 Q 中求出 与 si0 最近的点集 qi0 、 si0 和 qi0 构成对应点集。 3)应用方向向量阈值法选定点集 si0 和 qi0 ,运 算初值点集 si1 和 qi1 。 4) 应用 SVD 法求得点集 si1 和 qi1 之间的旋转 矩阵 R 和平移矢量 T。 5) 根据式 si2 = R1 si1 + T1 ,计算数据点集 si1 经过 一次坐标变换后所得到的数据点集 si2 ,然后重复步 骤 3) ~5),直到满足式(9): dk - dk+1 < ε dk = 1 N∑ N i = 1 ‖qik - sik‖2 ì î í ï ï ïï (9) 式中: ε 表示的是大于零的阈值,判断迭代是否收 敛,收敛则迭代结束。 4.3 基于体积空间融合的匹配算法 传统 ICP 算法存在的一个问题是直接融合两帧 点云会造成融合后的点云中出现冗余点。 因此,本 文引入了基于体积空间融合的匹配算法。 算法主要 思想是在对点云进行融合时,建立包含全部帧的一 个立方体栅格来表示三维空间,以一定的分辨率来 划分立方体为空间的像素点。 每一个点记录了到物 体模型表面的距离如图 2 所示,使用正负来表示表 面的被遮挡面和可见面,而过零点就代表是表面上 的点。 然后依次对每一帧数据进行处理,当有新的 数据加入时由式(10)和式(11)进行处理,通过累加 将各帧数据融合起来,最后空间体中的零值像素即 为最后的曲面上的点。 图 2 基于体积空间的点云融合 Fig. 2 Point cloud integration based on space Di+1(x) = Wi(x)Di(x) + Wi+1(x)Di+1(x) Wi(x) + Wi+1(x) (10) Wi+1(x) = Wi(x) + Wi+1(x) (11) Err(d) = d 2 × 0.003 5 (12) ωi(x) = x - x ∗ Err(x ∗ ) (13) 式中:i 表示栅格距离值, Err(d) 为传感器误差函 数, x ∗ 为单帧曲面上的点到相机中心距离。 算法使 用权重值进行融合,且具有最小二乘优化性质,因而 对传感器的噪声起到了一定的抑制作用。 4.4 位姿优化 在位姿转换计算中通常会存在误差累计,为此 采用了 g 2 0 优化方法,误差函数 F(x)定义如下: F(X) = (i∑,j)∈C e (xi,yj,zij) TΩij e(xi,yj,zij) (14) X ∗ = argmin x F(x) (15) 式中:xi表示第 i 时刻的机器人位姿,也称 g 2 0 为图 中的一个点,zij表示 xj和 xi两点之间的约束,e(xi , xj , zij)为 xi和 xj组成的边所产生的向量误差函数,代表 xi和 xj满足约束条件 zij的程度,当它的值为 0 时,xi 和 xj完全满足匹配约束。 5 实验结果及分析 5.1 实验平台 本文实验平台分为数据采集端和处理端两部 第 4 期 张毅,等:室内环境下移动机器人三维视觉 SLAM ·617·

.618 智能系统学报 第10卷 分,其中数据采集端(图3(b)所示)主要由Pio 配剔除,提高特征匹配的正确率,实验中完成粗匹配 neer3-DX机器人、Kinect和笔记本电脑组成,Kinect 所耗时间为0.00425s。 图像分辨率为640×480,最高帧频为30帧/s,水平 视场角为52°。数据处理端处理器为一台Intel双核 2.0GHz主频的PC机,运行Ubuntu12.04 Linux操 作系统。为保证较高的鲁棒性,实验中机器人移动 速度v为0.1m/s、转弯角速度w为0.52rad/s (30°/s)对每个关键帧完成特征点提取、误匹配剔除 (a)未经RANSAC算法匹配 和地图更新的时间约为300ms。 (b)经RANSAC算法匹配 图5粗匹配实验结果 Fig.5 The experimental results of coarse matching (a)实验场景 5.22三维环境重构效果对比 机器人以0.1m/s的线速度在室内环境下创建 地图,实验过程中最大迭代次数为50,阈值设定为 5cm,内点数量阈值N=13;台式机处理采集到的 图像帧,当特征点对少于50组时,将舍弃该帧数据, 不进行初始配准。 物体轮廓模糊, (b)实验装置 冗余点较多 图3实验装置与实验场景 Fig.3 Experimental apparatus and experimental scene 5.2真实环境下的三维视觉SLAM 5.2.1彩色点云生成与位姿估计 以室内真实环境(图3(a)所示)作为实验场 (a)传统方法重构结果 景,在对Kinect进行标定的基础上,由所得内外参 数以及对准校正后的像素点深度值将图像点转换为 彩色点云数据,如图4所示。 物体轮廓清晰 冗余点减少 (b)本文方法重构结果 图4环境三维彩色点云 图6室内环境三维重构结果 Fig.4 Environment 3D color point cloud Fig.6 3D reconstruction result of the indoor environment 在利用特征匹配算法获得相邻帧间对应关系的 图6(a)为采用文献[4]方法得到的三维环境重 基础上,利用RANSAC算法对点云进行粗匹配,粗 构结果,所构建的三维地图存在8冗余即8点较多 匹配结果如图5所示,由图可以看出,经过RANSAC 环境中物体轮廓模糊等问题。图6(b)为采用本文 算法进行粗匹配后能够将匹配过程中出现的错误匹 方法构建的三维环境重构结果,获得的三维地图较好

分,其中数据采集端( 图 3 ( b) 所示) 主要由 Pio⁃ neer3⁃DX 机器人、Kinect 和笔记本电脑组成,Kinect 图像分辨率为 640×480,最高帧频为 30 帧/ s,水平 视场角为 52°。 数据处理端处理器为一台 Intel 双核 2.0 GHz 主频的 PC 机, 运行 Ubuntu 12.04 Linux 操 作系统。 为保证较高的鲁棒性,实验中机器人移动 速度 v 为 0. 1 m / s、 转弯角速度 w 为 0. 52 rad / s (30°/ s)对每个关键帧完成特征点提取、误匹配剔除 和地图更新的时间约为 300 ms。 (a) 实验场景 (b) 实验装置 图 3 实验装置与实验场景 Fig. 3 Experimental apparatus and experimental scene 5.2 真实环境下的三维视觉 SLAM 5.2.1 彩色点云生成与位姿估计 以室内真实环境(图 3 ( a) 所示) 作为实验场 景,在对 Kinect 进行标定的基础上,由所得内外参 数以及对准校正后的像素点深度值将图像点转换为 彩色点云数据,如图 4 所示。 图 4 环境三维彩色点云 Fig. 4 Environment 3D color point cloud 在利用特征匹配算法获得相邻帧间对应关系的 基础上,利用 RANSAC 算法对点云进行粗匹配,粗 匹配结果如图 5 所示,由图可以看出,经过 RANSAC 算法进行粗匹配后能够将匹配过程中出现的错误匹 配剔除,提高特征匹配的正确率,实验中完成粗匹配 所耗时间为 0.004 25 s。 (a) 未经 RANSAC 算法匹配 (b) 经 RANSAC 算法匹配 图 5 粗匹配实验结果 Fig. 5 The experimental results of coarse matching 5.2.2 三维环境重构效果对比 机器人以 0.1 m / s 的线速度在室内环境下创建 地图,实验过程中最大迭代次数为 50,阈值设定为 5 cm,内点数量阈值 N = 13; 台式机处理采集到的 图像帧,当特征点对少于 50 组时,将舍弃该帧数据, 不进行初始配准。 (a) 传统方法重构结果 (b) 本文方法重构结果 图 6 室内环境三维重构结果 Fig. 6 3D reconstruction result of the indoor environment 图 6(a) 为采用文献[4]方法得到的三维环境重 构结果,所构建的三维地图存在 8 冗余即 8 点较多、 环境中物体轮廓模糊等问题。 图 6(b) 为采用本文 方法构建的三维环境重构结果,获得的三维地图较好 ·618· 智 能 系 统 学 报 第 10 卷

第4期 张毅,等:室内环境下移动机器人三维视觉SLAM .619. 的解决了上述问题,物体轮廓清晰,冗余点减少。 [3]HERRERA C D,KANNALA J,HEIKKILA J.Joint depth 5.2.3机器人运动轨迹跟踪 and color camera calibration with distortion correction[J]. 为了获得相机位姿的变化,本文采用最小二乘 IEEE Transactions on Pattern Analysis and Machine Intelli- gence,2012,34(10):2058-2064. 逼近的方法对机器人相邻位姿进行估计,借助g0 [4]杨扬,曹其新,朱笑笑.面向机器人手眼协调抓取的3维 优化方法对估计位姿进行优化。为了使运动轨迹更 建模方法[J].机器人,2013,35(2):151-155. 为直观,实验给出了机器人运动轨迹在X/Y平面上 YANG Yang,CAO Qixin,ZHU Xiaoxiao.A 3D modeling 的投影如图7(a)所示,以及机器人在三维空间中的 method for robot's hand-eye coordinated grasping[J].Ro- 运动轨迹如图7(b)所示。可以看出本文方法能较 bot,2013,35(2):151-155. 好的实现机器人的运动轨迹跟踪。 [5]HENRY P,KRAININ M,HERBST E,et al.RGB-D map- ping:Using Kinect-style depth cameras for dense 3D model- ing of indoor environments[J].International Journal of Ro- 2 botics Research,2012,31(5):647-663. 里程计记录的机 [6]HARRIS C,STEPHENS M.A combined corner and edge de- 器人运动轨迹 tector[C]//Proc.Alvey Vis.Conf.,1988:147-151. [7]LOWE D G.Object recognition from local scale-invariant features [C]//International Conference on Computer Vi- sion.Kerkyra,Corfu,Greece,1999:1150-1157. 预测的运动 [8]BAY H,ESS A,TUYTELAARS T,et al.Speeded-up ro- 轨迹 bust features (SURF)[J].Comput.Vis.Image Understand- 3 ing,2008,110:346-359. x/m [9]KUMMERLE R,GRISETTI G,STRASDAT H,et al.G2o: A general framework for graph optimization [C]//IEEE In- (a)运动轨迹在X/Y平面上的投影 ternational Conference on Robotics and Automation.Piscat- away:EEE,2011:3607-3613. 系统跟踪的机 [10]JAN S,MICHAL J,TOMAS P.3D with Kinect [C]// 器人运动轨迹 2011 IEEE International Conference on Computer Vision Workshops.Barcelona:Institute of Electrical and Electron- ics Engineers Inc,2011:1154-1160. [11]TYKKALA T,AUDRAS C.Comport A I.Direct iterative closest point for real-time visual odometry C]//ICCV Workshops.IEEE,Barcelona,Spain,2011:2050-2056. 作者简介: 张毅,男,1966年生,教授,博士生 (b)轨迹跟踪结果 导师,中国人工智能学会理事,国家信 图7机器人运动轨迹跟踪 息无障碍研发中心主任,主要研究方向 Fig.7 Robot trajectory tracking 为智能系统与移动机器人、机器视觉与 模式识别、多传感器信息融合。主持完 6结束语 成国家级和省部基金项目10余项,发 表学术论文160余篇,SCI、EI收录80 本文提出的分层式点云配准策略,较好地解决 余篇,获国家发明专利10余项。 了点云配准过程中匹配误差较大、效率低下的问题。 陈起,男,1991年生,硕士,主要研 在三维地图生成部分,引入了基于体积空间的多帧 究方向为机器人同时定位与地图创建 融合方法来减少冗余点。实验结果表明本文所提方 (SLAM)、机器人三维视觉导航。 法的有效性。下一步计划对系统进行两方面的改 进:1)对创建的环境三维地图的全局优化。2)研究 采用并行技术,进一步提高系统执行效率,缩短系统 的运行时间,使系统具有更好的实时性。 罗元,女,1972年生,教授,博士,美 参考文献: 国OSA,SPIE、中国仪器仪表学会、中国 光学学会高级会员,主要研究方向为人 [1]RYDE J,HU H S.3D mapping with multi-resolution occu- 机交互、基于图像视频处理的人机交 pied voxel lists [J].Autonomous Robots,2010,28(2): 互、基于图像视频处理的测试。主持和 169-185. 参与国家、省部基金项目10余项,发表 [2]KOPPILA H S,ANAND A.Semantic labeling of 3D point 学术论文100余篇,被SCI、EI收录40余篇,获国家发明专 clouds for indoor scenes[C]//25th Annual Conference on 利6项。 Neural Information Processing Systems.New York,USA: [责任编辑:陈峰] Curran Associates Inc.,2011

的解决了上述问题,物体轮廓清晰,冗余点减少。 5.2.3 机器人运动轨迹跟踪 为了获得相机位姿的变化,本文采用最小二乘 逼近的方法对机器人相邻位姿进行估计,借助 g 2 0 优化方法对估计位姿进行优化。 为了使运动轨迹更 为直观,实验给出了机器人运动轨迹在 X / Y 平面上 的投影如图 7(a)所示,以及机器人在三维空间中的 运动轨迹如图 7( b)所示。 可以看出本文方法能较 好的实现机器人的运动轨迹跟踪。 (a) 运动轨迹在 X/ Y 平面上的投影 (b) 轨迹跟踪结果 图 7 机器人运动轨迹跟踪 Fig. 7 Robot trajectory tracking 6 结束语 本文提出的分层式点云配准策略,较好地解决 了点云配准过程中匹配误差较大、效率低下的问题。 在三维地图生成部分,引入了基于体积空间的多帧 融合方法来减少冗余点。 实验结果表明本文所提方 法的有效性。 下一步计划对系统进行两方面的改 进:1)对创建的环境三维地图的全局优化。 2)研究 采用并行技术,进一步提高系统执行效率,缩短系统 的运行时间,使系统具有更好的实时性。 参考文献: [1]RYDE J, HU H S. 3D mapping with multi⁃resolution occu⁃ pied voxel lists [ J]. Autonomous Robots, 2010, 28 ( 2): 169⁃185. [2]KOPPILA H S, ANAND A. Semantic labeling of 3D point clouds for indoor scenes[C] / / 25th Annual Conference on Neural Information Processing Systems. New York, USA: Curran Associates Inc., 2011. [3] HERRERA C D, KANNALA J, HEIKKILA J. Joint depth and color camera calibration with distortion correction[ J]. IEEE Transactions on Pattern Analysis and Machine Intelli⁃ gence, 2012, 34(10):2058⁃2064. [4]杨扬,曹其新,朱笑笑.面向机器人手眼协调抓取的 3 维 建模方法[J].机器人,2013,35(2): 151⁃155. YANG Yang, CAO Qixin, ZHU Xiaoxiao. A 3D modeling method for robot’ s hand⁃eye coordinated grasping[ J]. Ro⁃ bot,2013,35(2):151⁃155. [5]HENRY P, KRAININ M, HERBST E, et al. RGB⁃D map⁃ ping: Using Kinect⁃style depth cameras for dense 3D model⁃ ing of indoor environments[ J]. International Journal of Ro⁃ botics Research, 2012, 31(5): 647⁃663. [6]HARRIS C, STEPHENS M. A combined corner and edge de⁃ tector[C] / / Proc. Alvey Vis. Conf. ,1988: 147⁃151. [7] LOWE D G. Object recognition from local scale⁃invariant features [ C] / / International Conference on Computer Vi⁃ sion. Kerkyra,Corfu,Greece,1999:1150⁃1157. [8]BAY H, ESS A, TUYTELAARS T, et al. Speeded⁃up ro⁃ bust features (SURF) [J].Comput. Vis. Image Understand⁃ ing, 2008,110:346⁃359. [9]KUMMERLE R, GRISETTI G, STRASDAT H, et al. G2o: A general framework for graph optimization [C] / / IEEE In⁃ ternational Conference on Robotics and Automation. Piscat⁃ away: IEEE,2011: 3607⁃3613. [10] JAN S, MICHAL J, TOMAS P. 3D with Kinect [ C] / / 2011 IEEE International Conference on Computer Vision Workshops. Barcelona: Institute of Electrical and Electron⁃ ics Engineers Inc,2011: 1154⁃1160. [11]TYKKALA T,AUDRAS C, Comport A I. Direct iterative closest point for real⁃time visual odometry [ C ] / / ICCV Workshops. IEEE,Barcelona, Spain,2011:2050⁃2056. 作者简介: 张毅,男, 1966 年生,教授,博士生 导师,中国人工智能学会理事,国家信 息无障碍研发中心主任,主要研究方向 为智能系统与移动机器人、机器视觉与 模式识别、多传感器信息融合。 主持完 成国家级和省部基金项目 10 余项,发 表学术论文 160 余篇,SCI、EI 收录 80 余篇,获国家发明专利 10 余项。 陈起,男,1991 年生,硕士,主要研 究方向为机器人同时定位与地图创建 (SLAM)、机器人三维视觉导航。 罗元,女,1972 年生,教授,博士,美 国 OSA、SPIE、中国仪器仪表学会、中国 光学学会高级会员,主要研究方向为人 机交互、基于图像视频处理的人机交 互、基于图像视频处理的测试。 主持和 参与国家、省部基金项目 10 余项,发表 学术论文 100 余篇,被 SCI、EI 收录 40 余篇,获国家发明专 利 6 项。 [责任编辑:陈峰] 第 4 期 张毅,等:室内环境下移动机器人三维视觉 SLAM ·619·

点击下载完整版文档(PDF)VIP每日下载上限内不扣除下载券和下载次数;
按次数下载不扣除下载券;
24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
已到末页,全文结束
相关文档

关于我们|帮助中心|下载说明|相关软件|意见反馈|联系我们

Copyright © 2008-现在 cucdc.com 高等教育资讯网 版权所有