正在加载图片...
·616 智能系统学报 第10卷 一个基于Kinect的交互式的三维模型重建系统,但 了g0优化方法对机器人位姿进行优化,实验验证 是该系统依靠关键帧的选取,计算量大、时间复杂度 了本文方法的可行性和有效性。 高,难以用于移动机器人三维地图在线创建。针对 上述问题,本文提出了一种室内环境下移动机器人 1 系统结构 三维视觉SLAM方法。针对点云配准过程存在的匹 本文提出的室内环境下移动机器人三维视觉 配误差较大、效率低下的问题,提出一种分层式点云 SLAM系统的总体框架如图1所示,主要分为特征 配准策略。同时引入基于体积融合的匹配算法完成 点检测与匹配、Kinect标定与点云生成、分层式点云 精确配准,有效的去除了拼接结果中的重复点,采用 配准3部分。 彩色图像 SURT 特征点检 测与匹配 剔除 RANS 无匹 ICP- 位姿 AC算 配点 TSDP 优化 位姿轨迹 深度图像 法完成 及环境三 完成精 生成 3D点 点云初 维地图 确配准 Kinect标定 点云 坐标 始配准 与数据对准 RGB 数据 图1室内环境下移动机器人三维视觉SLAM总体框架图 Fig.1 Total frame of three dimensional visual SLAM for mobile robot in indoor environment 2特征点检测与匹配 (x4,y),投射到三维空间点p(x,y,z),其坐标计算 如下: 经典的特征点检测算法包括Harrist6]、SFT】 (xu-cd)x depth(xa,ya) (2) SURF)算法等。经综合考虑为获得鲁棒性、稳定性 fa 更好的特征点检测结果,本文采用具有旋转和尺度 不变性且速度较快的SURF算法。SURF特征点提 y=(-Sa)×depth(x,a) (3) fyd 取过程主要包括特征点检测、特征点主方向选取、生 z=depth(xa,ya) (4) 成特征描述子。判断基于描述的特征点是否匹配, 式中:P,=PT为当前像素点深度值,c和c为图 可通过计算欧式距离来实现,设匹配图像的特征点 像光心坐标,f和f为深度相机焦距,其中ff均 集合分别为X和Y。欧式距离可以描述为 可由标定得到。 D(X,Y)=IX-Y‖= (X:-Y)"(1) 4分层式点云配准 Ai=1 欧式距离越小表示特征点相似程度越高,本文 4.1 RANSAC算法粗匹配 在匹配过程中采用了最大紧邻向量匹配方法,即通 本文采用RANSAC算法进行特征点的粗匹配, 过比较特征点集合中的每一个特征点与特征点集合 以使2组点集的公共区域能够大致重合,为下一步 中各特征点的欧式距离,D,和D,分别代表最近和 精确匹配做准备。算法设定一个容许误差将所有的 次近的欧式距离,若D,≤aD,(α为设定的最近次近 匹配点对分为内点和外点。本文实验中设定的阈值 距离比值,本文设定=0.60),则认为两个特征点 d=3.00舍去误差大于d的匹配点对(外点)。为了 匹配,反之丢弃该点。 获得摄像机位姿的变化,本文采用了最小二乘逼近 的方法[山。利用算法所得内点进行最小二乘算法 3 标定与点云生成 下机器人相邻位姿的估计。摄像机第i时刻的位姿 为获取Kinect的彩色与深度相机的内参数矩 P,相对于第j时刻的摄像机位姿P,的转换关系为 阵以及彩色与深度相机之间的刚体变换,减小深度 P,=PT其中T为刚性变换矩阵: 图像与红外图像之间存在的漂移),需要对Kinect T= 「R3x33x1 (5) 进行标定,本文采用文献[l0]标定方法对Kinect进 01 行标定。在完成Kinect对准校正后,可根据图像中 式中:R3x3为旋转矩阵;3x1为平移矩阵。对于移动 任意一点对应的深度值得到该点三维坐标,进而生 机器人同步定位与地图构建,可通过下式获得各时 成三维彩色点云数据。给定任意深度图像像素点 刻数据相对于初始时刻的变换矩阵:一个基于 Kinect 的交互式的三维模型重建系统,但 是该系统依靠关键帧的选取,计算量大、时间复杂度 高,难以用于移动机器人三维地图在线创建。 针对 上述问题,本文提出了一种室内环境下移动机器人 三维视觉 SLAM 方法。 针对点云配准过程存在的匹 配误差较大、效率低下的问题,提出一种分层式点云 配准策略。 同时引入基于体积融合的匹配算法完成 精确配准,有效的去除了拼接结果中的重复点,采用 了 g 2 0 优化方法对机器人位姿进行优化,实验验证 了本文方法的可行性和有效性。 1 系统结构 本文提出的室内环境下移动机器人三维视觉 SLAM 系统的总体框架如图 1 所示,主要分为特征 点检测与匹配、Kinect 标定与点云生成、分层式点云 配准 3 部分。 图 1 室内环境下移动机器人三维视觉 SLAM 总体框架图 Fig. 1 Total frame of three dimensional visual SLAM for mobile robot in indoor environment 2 特征点检测与匹配 经典的特征点检测算法包括 Harris [6] 、SIFT [7] 、 SURF [8]算法等。 经综合考虑为获得鲁棒性、稳定性 更好的特征点检测结果,本文采用具有旋转和尺度 不变性且速度较快的 SURF 算法。 SURF 特征点提 取过程主要包括特征点检测、特征点主方向选取、生 成特征描述子。 判断基于描述的特征点是否匹配, 可通过计算欧式距离来实现,设匹配图像的特征点 集合分别为 X 和 Y。 欧式距离可以描述为 D(X,Y) = ‖X - Y‖ = ∑ d i = 1 (Xi - Yi) w (1) 欧式距离越小表示特征点相似程度越高,本文 在匹配过程中采用了最大紧邻向量匹配方法,即通 过比较特征点集合中的每一个特征点与特征点集合 中各特征点的欧式距离, D1 和 D2 分别代表最近和 次近的欧式距离,若 D1 ≤ αD2(α 为设定的最近次近 距离比值,本文设定 α = 0.60), 则认为两个特征点 匹配,反之丢弃该点。 3 标定与点云生成 为获取 Kinect 的彩色与深度相机的内参数矩 阵以及彩色与深度相机之间的刚体变换,减小深度 图像与红外图像之间存在的漂移[9] ,需要对 Kinect 进行标定,本文采用文献[10]标定方法对 Kinect 进 行标定。 在完成 Kinect 对准校正后,可根据图像中 任意一点对应的深度值得到该点三维坐标,进而生 成三维彩色点云数据。 给定任意深度图像像素点 (xd ,yd ),投射到三维空间点 p(x,y,z),其坐标计算 如下: x = (xd - cxd ) × depth(xd ,yd ) f xd (2) y = (xd - cyd ) × depth(xd ,yd ) f yd (3) z = depth(xd ,yd ) (4) 式中: Pj = PiT j i 为当前像素点深度值,cxd和 cyd为图 像光心坐标,f xd和 f yd为深度相机焦距,其中 f xd 、f yd均 可由标定得到。 4 分层式点云配准 4.1 RANSAC 算法粗匹配 本文采用 RANSAC 算法进行特征点的粗匹配, 以使 2 组点集的公共区域能够大致重合,为下一步 精确匹配做准备。 算法设定一个容许误差将所有的 匹配点对分为内点和外点。 本文实验中设定的阈值 d = 3.00 舍去误差大于 d 的匹配点对(外点)。 为了 获得摄像机位姿的变化,本文采用了最小二乘逼近 的方法[11] 。 利用算法所得内点进行最小二乘算法 下机器人相邻位姿的估计。 摄像机第 i 时刻的位姿 Pi 相对于第 j 时刻的摄像机位姿 Pj 的转换关系为 Pj =PiT j i 其中 T j i 为刚性变换矩阵: T j i = R3×3 t 3×1 0 1 é ë ê ê ù û ú ú (5) 式中: R3×3 为旋转矩阵; t 3×1 为平移矩阵。 对于移动 机器人同步定位与地图构建,可通过下式获得各时 刻数据相对于初始时刻的变换矩阵: ·616· 智 能 系 统 学 报 第 10 卷
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有