第13卷第6期 智能系统学报 Vol.13 No.6 2018年12月 CAAI Transactions on Intelligent Systems Dec.2018 D0:10.11992/tis.201712005 网络出版地址:http:/kns.cnki.net/kcms/detail/23.1538.TP.20180411.1548.014html 基于显著性检测的双目测距系统 安果维,王耀南,周显恩,谭建豪 (湖南大学机器人视觉感知与控制技术国家工程实验室,湖南长沙410082) 摘要:为了提高双目视觉测距系统中图像匹配的实时性与测距的精度,提出一种将显著性检测与焦距拟合相 结合的双目测距方法。首先对双目相机进行畸变矫正,并利用双目相机成像的特点拟合相机焦距与目标距离 的关系,随后对所得图像进行显著性检测,并提取目标区域,最后,利用su算子对提取出的区域进行特征匹 配,将匹配点代入测距模型中得到目标物体的距离。结果表明:显著性检测方法明显提升算法执行速度,焦距 拟合降低双目测距模型误差,明显提升双目测距精度。 关键词:机器视觉;suf算子;双目测距;特征点匹配;相机矫正 中图分类号:TP391文献标志码:A文章编号:1673-4785(2018)06-0913-08 中文引用格式:安果维,王耀南,周显恩,等.基于显著性检测的双目测距系统J.智能系统学报,2018,13(6):913-920 英文引用格式:AN Guowei,,WANG Yaonan,,ZHOU Xian'en,etal.Binocular distance measurement system based on saliency de- tection[J.CAAI transactions on intelligent systems,2018,13(6):913-920. Binocular distance measurement system based on saliency detection AN Guowei,WANG Yaonan,ZHOU Xian'en,TAN Jianhao (National Engineering Laboratory for Robot Visual Perception and Control Technology,Hu'nan University,Changsha 410082 China) Abstract:To improve real-time image matching and ranging accuracy in binocular vision ranging systems,this paper proposes a binocular distance measurement method,in which saliency detection and focal length fitting are combined. The method first corrects the distortion of the binocular camera and then fits the relationship between the camera focal length and object distance by using the characteristics of the binocular camera imaging and further applies the obtained image for saliency detection,and then the target object area is extracted.Finally,the surf operator is used to perform fea- ture matching on the extracted region,and the matching point is substituted into the ranging model to obtain the dis- tance of the target object.The results show that the saliency detection method can significantly improve the execution speed of the algorithm,and the focal length fitting can reduce the error of binocular ranging model,which significantly improves the binocular ranging system accuracy. Keywords:machine vision;surf operator,binocular distance measurement;feature points match;camera correction 双目视觉测距技术是计算机视觉技术的一种 与目前其他测距方法相比,双目测距具有成本 应用。它具有通过对人类双眼处理景物方式的模 低、精度高、方便快捷等优点4。作为计算机视 拟感知周围环境空间深度的功能。在一些领 觉的分支,双目视觉技术在近些年来得到了长足 域,机器视觉正在代替人眼成为有效的新工具。 的发展阿。 双目视觉在机器人导航与避障、机械臂的引导、 双目视觉测距技术的基本原理是基于物体在 三维成像、汽车导航等诸多领域都极具应用价值。 左右相机像平面成像的相差,利用相似三角形的 几何关系,得到物体距相机的距离。其中的关 收稿日期:2017-12-04.网络出版日期:2018-04-11. 键部分则是对左右视图进行匹配得到特征点的相 基金项目:国家自然科学基金项目(61433016,61573134) 通信作者:安果维.E-mail:992466100@q9.com. 差。而suf算法的特征点匹配具有稳定性高,实
DOI: 10.11992/tis.201712005 网络出版地址: http://kns.cnki.net/kcms/detail/23.1538.TP.20180411.1548.014.html 基于显著性检测的双目测距系统 安果维,王耀南,周显恩,谭建豪 (湖南大学 机器人视觉感知与控制技术国家工程实验室,湖南 长沙 410082) 摘 要:为了提高双目视觉测距系统中图像匹配的实时性与测距的精度,提出一种将显著性检测与焦距拟合相 结合的双目测距方法。首先对双目相机进行畸变矫正,并利用双目相机成像的特点拟合相机焦距与目标距离 的关系,随后对所得图像进行显著性检测,并提取目标区域,最后,利用 surf 算子对提取出的区域进行特征匹 配,将匹配点代入测距模型中得到目标物体的距离。结果表明:显著性检测方法明显提升算法执行速度,焦距 拟合降低双目测距模型误差,明显提升双目测距精度。 关键词:机器视觉;surf 算子;双目测距;特征点匹配;相机矫正 中图分类号:TP391 文献标志码:A 文章编号:1673−4785(2018)06−0913−08 中文引用格式:安果维, 王耀南, 周显恩, 等. 基于显著性检测的双目测距系统[J]. 智能系统学报, 2018, 13(6): 913–920. 英文引用格式:AN Guowei, WANG Yaonan, ZHOU Xian’en, et al. Binocular distance measurement system based on saliency detection[J]. CAAI transactions on intelligent systems, 2018, 13(6): 913–920. Binocular distance measurement system based on saliency detection AN Guowei,WANG Yaonan,ZHOU Xian’en,TAN Jianhao (National Engineering Laboratory for Robot Visual Perception and Control Technology, Hu’nan University, Changsha 410082, China) Abstract: To improve real-time image matching and ranging accuracy in binocular vision ranging systems, this paper proposes a binocular distance measurement method, in which saliency detection and focal length fitting are combined. The method first corrects the distortion of the binocular camera and then fits the relationship between the camera focal length and object distance by using the characteristics of the binocular camera imaging and further applies the obtained image for saliency detection, and then the target object area is extracted. Finally, the surf operator is used to perform feature matching on the extracted region, and the matching point is substituted into the ranging model to obtain the distance of the target object. The results show that the saliency detection method can significantly improve the execution speed of the algorithm, and the focal length fitting can reduce the error of binocular ranging model, which significantly improves the binocular ranging system accuracy. Keywords: machine vision; surf operator; binocular distance measurement; feature points match; camera correction 双目视觉测距技术是计算机视觉技术的一种 应用。它具有通过对人类双眼处理景物方式的模 拟感知周围环境空间深度的功能[1]。在一些领 域,机器视觉正在代替人眼成为有效的新工具。 双目视觉在机器人导航与避障、机械臂的引导、 三维成像、汽车导航等诸多领域都极具应用价值[2-3]。 与目前其他测距方法相比,双目测距具有成本 低、精度高、方便快捷等优点[4-5]。作为计算机视 觉的分支,双目视觉技术在近些年来得到了长足 的发展[6]。 双目视觉测距技术的基本原理是基于物体在 左右相机像平面成像的相差,利用相似三角形的 几何关系,得到物体距相机的距离[7]。其中的关 键部分则是对左右视图进行匹配得到特征点的相 差。而 surf 算法的特征点匹配具有稳定性高,实 收稿日期:2017−12−04. 网络出版日期:2018−04−11. 基金项目:国家自然科学基金项目 (61433016,61573134). 通信作者:安果维. E-mail:992466100@qq.com. 第 13 卷第 6 期 智 能 系 统 学 报 Vol.13 No.6 2018 年 12 月 CAAI Transactions on Intelligent Systems Dec. 2018
·914· 智能系统学报 第13卷 时性高的特点。本文在对视图进行显著性检测 (XYZ),点P在左右像平面的成像坐标分别为 的基础上,用suf算子对提取出的目标区域进行 P(y)和P(xy),P与P为点P的一组匹配点对。 特征点匹配。准确地得到了目标的距离,并提高 图2为该模型在XZ平面的投影成像图。左右相 了测距过程的实时性。 机光心O、O,平行放置相距为基线距离T。相机 焦距为F,点P距离相机平面的距离为Z,则由相 1双目视觉测距系统 似三角形几何关系可得: 本文设计的双目视觉测距系统旨在为旋翼飞 行器机械臂系统提供目标物体的距离信息,如图1 所示,双目相机安装在旋翼飞行器机械臂系统的 F:Y (1) 机械臂末端,通过双目相机对目标物体的实时测 F:(T-X) X,= 距并反馈距离信息,来控制旋翼飞行器机械臂系 Z Z-Fx 统操作实现抓取功能。双目视觉系统的原理图如 元=T--x 图2所示。 推导可得: X= x1-x Y=- y -T xI-x (2) 双目稻 Z= F:T 机搭载 X-x 平台 相机 式中(:一x)为左右视差图匹配点的视差。可见目 左目 标点距离相机平面的距离Z的求取精度与相差直 接相关,所以图像特征点匹配的成功与否直接决 定距离测量的精度,X-Z平面成像图如图3所示。 D 待抓取 目标 物体 图1双目视觉系统实物 0 Fig.1 Real object drawing of binocular vision system 0 7 0, 摄像头 图3X-Z平面成像图 Fig.3 The projection on X-Zplane 摄像头 2本文方法 图2双目视觉结构原理 为了提高双目测距过程的实时性,本文设计 Fig.2 The principle diagram of the binocular vision 了一种双目视觉成像测距模型,并重点研究了目 假设左右相机的焦距和其他相关参数均相 标检测识别与左右视图特征匹配的问题,提出了 等,且平行放置。镜头基线均垂直于成像平面, 一种基于显著性检测的双目视觉测距方法。根据 左右相机满足x轴重合,y轴平行,左右相机像平面 目标物体在视图中颜色对比度比较明显的特征, 重合。左右相机的成像像差只在x轴存在。目标 采用基于直方图对比度(histogram contrast,,HC)的 P为物体上一点,在摄像机坐标系下坐标为 显著性值检测方法提取检测目标区域。针对相
时性高的特点[8]。本文在对视图进行显著性检测 的基础上,用 surf 算子对提取出的目标区域进行 特征点匹配。准确地得到了目标的距离,并提高 了测距过程的实时性。 1 双目视觉测距系统 本文设计的双目视觉测距系统旨在为旋翼飞 行器机械臂系统提供目标物体的距离信息,如图 1 所示,双目相机安装在旋翼飞行器机械臂系统的 机械臂末端,通过双目相机对目标物体的实时测 距并反馈距离信息,来控制旋翼飞行器机械臂系 统操作实现抓取功能。双目视觉系统的原理图如 图 2 所示。 双目相 机搭载 平台 左目 相机 右目 相机 待抓取 目标 物体 图 1 双目视觉系统实物 Fig. 1 Real object drawing of binocular vision system x y z T Fx P(X,Y,Z) Pl Pr 摄像头 摄像头 图 2 双目视觉结构原理 Fig. 2 The principle diagram of the binocular vision x y x P 假设左右相机的焦距和其他相关参数均相 等,且平行放置。镜头基线均垂直于成像平面, 左右相机满足 轴重合, 轴平行,左右相机像平面 重合。左右相机的成像像差只在 轴存在。目标 为物体上一点,在摄像机坐标系下坐标 为 X,Y,Z P Pl xl yl Pr xr yr Pl Pr P Ol Or Fx P Z ( ),点 在左右像平面的成像坐标分别为 ( , ) 和 ( , ), 与 为点 的一组匹配点对。 图 2 为该模型在 X-Z 平面的投影成像图。左右相 机光心 、 平行放置相距为基线距离 T。相机 焦距为 ,点 距离相机平面的距离为 ,则由相 似三角形几何关系[9-10]可得: xl = Fx Z X y = Fx Z Y xr = − Fx Z (T − X) Z T = Z − Fx T −(xl − xr) (1) 推导可得: X = xl xl − xr T Y = y xl − xr T Z = Fx xl − xr T (2) 式中 (xl − xr) 为左右视差图匹配点的视差。可见目 标点距离相机平面的距离 Z 的求取精度与相差直 接相关,所以图像特征点匹配的成功与否直接决 定距离测量的精度,X-Z 平面成像图如图 3 所示。 xl xr Ol Or P T Fx Fx 左 右 X Z 图 3 X-Z 平面成像图 Fig. 3 The projection on X-Z plane 2 本文方法 为了提高双目测距过程的实时性,本文设计 了一种双目视觉成像测距模型,并重点研究了目 标检测识别与左右视图特征匹配的问题,提出了 一种基于显著性检测的双目视觉测距方法。根据 目标物体在视图中颜色对比度比较明显的特征, 采用基于直方图对比度 (histogram contrast, HC) 的 显著性值检测方法[11]提取检测目标区域。针对相 ·914· 智 能 系 统 学 报 第 13 卷
第6期 安果维,等:基于显著性检测的双目测距系统 ·915· 机焦距会随距离变化产生误差的特点,提出了一 即完成了相机畸变校正的过程,其中(,)表示畸 种用多组实验数据拟合相机焦距的方法,随后对 变矫正后的像素坐标,(位,)代表畸变矫正前,实际 检测到的目标物体应用surf算子⑧进行匹配,得 径向畸变下的像素坐标。由图6可以看出,与畸 到目标物体的距离信息,算法流程如图4所示。 变校正前的图5相比,在畸变影响下变弯曲的直 线得到了很明显的修正。 相机标定 相机单 畸变 双目测距模 视图获取 目标定 校正 型焦距拟合 视图显著 目标区 surf算 算出目标 性检测 域提取 子匹配 距离 图4本文算法流程图 Fig.4 The flowchart of the proposed method 2.1相机畸变校正 在本文模型中主要考虑相机的径向畸变问题网。 图5畸变矫正前图像 由图5可以看出,由于径向畸变的存在,在远离图 Fig.5 Image before distortion correction 像中心的区域a与区域b,现实当中的直线已经 出现明显的弯曲。设不考虑畸变的图像坐标为 (低,),畸变之后的图像坐标为(优,),则两者的对应 关系满足: =x+x(k(x2+y)+k2(x2+y2)) (3) =y+yk1(x2+y2)+k2(x2+y2)2) (4) 式中k与2为径向畸变系数。 假设在图像像素坐标系下,不考虑畸变的坐 标为(,),考虑畸变后的坐标值为(位,),则式 (3)与式(4)等价于: 图6畸变矫正后图像 Fig.6 Image after distortion correction i=4+(u-6)k1(x2+y2)+k2(x2+y2)2) (5) 2.2 双目测距模型焦距的拟合 =v+(w-6)k1(x2+y2)+k2(x2+y22) (6) 在双目视觉的测距过程中,由于误差存在的 式中(o,)表示图像平面的主点,对式(5)与式 原因,随着距离的变大,测量的焦距逐渐增大, (6)继续整理可得: 焦距与距离近似满足线性关系如式(11)。于是本 ce 文采用测量多组数据进行线性回归拟合以得到焦 距的方法。其中,求取焦距与实际距离的拟合公 假设有n幅图片,每幅图片有m个点,则可以 式为 得到2mm个等式,运用最小二乘法对结果进行优 F,=G(D) (11) 化,可以解得: 测量的焦距F与实际距离D成线性关系,即 k=(DTD)D'd (7) 可以近似写成: 在考虑到畸变参数之后把世界坐标系下的点 F,T=kD+b (12) 反投影到图像坐标系下,并与理想无畸变的参数 式中k、b为常数。 进行最大似然估计,得到式(8),可以采用LM 由方程组 算法进行计算求取最优解。 F,T=kD+b (13) o-r...vo D=FT/(x-x,) (14) (8) 可以得到实际距离D与相差x-x,的关系: (15) 然后由式(9)与式(10) D(x-x,-k)+b=0 得到D与(:-x)的数据后,为了求得最准确 u=i+(i-o)[k1(x2+y2)+k2(x2+y2)2] (9) 的k与b值,由最小二乘法求出线性回归拟合方程 v=+(-6)k1(x2+y2)+k2(x2+y2)2] (10) 组。为方便表达,设D的值为x,FT的值为y,为使
机焦距会随距离变化产生误差的特点,提出了一 种用多组实验数据拟合相机焦距的方法,随后对 检测到的目标物体应用 surf 算子[8]进行匹配,得 到目标物体的距离信息,算法流程如图 4 所示。 相机单 目标定 畸变 校正 双目测距模 型焦距拟合 视图获取 视图显著 性检测 surf 算 子匹配 算出目标 距离 相机标定 目标区 域提取 图 4 本文算法流程图 Fig. 4 The flowchart of the proposed method 2.1 相机畸变校正 ( ⌣ x, ⌣ y) ( ⌣ x, ⌣ y) 在本文模型中主要考虑相机的径向畸变问题[12]。 由图 5 可以看出,由于径向畸变的存在,在远离图 像中心的区域 a 与区域 b,现实当中的直线已经 出现明显的弯曲。设不考虑畸变的图像坐标为 ,畸变之后的图像坐标为 ,则两者的对应 关系满足: ⌣ x = x+ x(k1(x 2 +y 2 )+k2(x 2 +y 2 ) 2 ) (3) ⌣ y = y+y(k1(x 2 +y 2 )+k2(x 2 +y 2 ) 2 ) (4) 式中 k1与 k2为径向畸变系数。 (u, v) ( ⌣ u, ⌣ v) 假设在图像像素坐标系下,不考虑畸变的坐 标 为 ,考虑畸变后的坐标值为 , 则 式 (3) 与式 (4) 等价于: ⌣ u = u+(u−u0)(k1(x 2 +y 2 )+k2(x 2 +y 2 ) 2 ) (5) ⌣ v = v+(v−v0)(k1(x 2 +y 2 )+k2(x 2 +y 2 ) 2 ) (6) 式中 (u0, v0) 表示图像平面的主点,对式 (5) 与式 (6) 继续整理可得: [ (u−u0)(x 2 +y 2 ) (u−u0)(x 2 +y 2 ) 2 (v−v0)(x 2 +y 2 ) (v−v0)(x 2 +y 2 ) 2 ] [ k1 k2 ] = ⌣ u−u ⌣ v−v n m 2mn 假设有 幅图片,每幅图片有 个点,则可以 得到 个等式,运用最小二乘法对结果进行优 化,可以解得: k = (D T D) −1 D T d (7) 在考虑到畸变参数之后把世界坐标系下的点 反投影到图像坐标系下,并与理想无畸变的参数 进行最大似然估计,得到式 (8),可以采用 LM 算法进行计算求取最优解。 ∑n i=1 ∑m j=1 ui j − f(M,Ri ,ti , k1 , k2 ,Ui j) 2 (8) 然后由式 (9) 与式 (10), u = ⌣ u+( ⌣ u−u0)[k1(x 2 +y 2 )+k2(x 2 +y 2 ) 2 ] (9) v = ⌣ v+( ⌣ v−v0)[k1(x 2 +y 2 )+k2(x 2 +y 2 ) 2 ] (10) (u, v) ( ⌣ u, ⌣ v) 即完成了相机畸变校正的过程,其中 表示畸 变矫正后的像素坐标, 代表畸变矫正前,实际 径向畸变下的像素坐标。由图 6 可以看出,与畸 变校正前的图 5 相比,在畸变影响下变弯曲的直 线得到了很明显的修正。 a b 图 5 畸变矫正前图像 Fig. 5 Image before distortion correction a b 图 6 畸变矫正后图像 Fig. 6 Image after distortion correction 2.2 双目测距模型焦距的拟合 在双目视觉的测距过程中,由于误差存在的 原因,随着距离的变大,测量的焦距逐渐增大[13] , 焦距与距离近似满足线性关系如式 (11)。于是本 文采用测量多组数据进行线性回归拟合以得到焦 距的方法。其中,求取焦距与实际距离的拟合公 式为 Fx = G(D) (11) 测量的焦距 Fx与实际距离 D 成线性关系,即 可以近似写成: FxT = kD+b (12) 式中 k、b 为常数。 由方程组 FxT = kD+b (13) D = FxT/ (xl − xr) (14) 可以得到实际距离 D 与相差xl − xr的关系: D(xl − xr −k)+b = 0 (15) (xl − xr) k b x FxT y 得到 D 与 的数据后,为了求得最准确 的 与 值,由最小二乘法求出线性回归拟合方程 组。为方便表达,设 D 的值为 , 的值为 , 为使 第 6 期 安果维,等:基于显著性检测的双目测距系统 ·915·
·916· 智能系统学报 第13卷 k与b的值误差最小,即要求误差平方和 ×10 6.2 数据 e-2+- (16) 6.0 拟合曲线 5.8 最小,先求出x与y的平均值与),将式(16)变形得 5.6 5.4 2=【6+k-刃-0M-列+kx-r (17) 5.2 5.0 将平方开出,并整理得 4.8 0=术2矿-2必24-0w- 4.6 4.4 4 5 6789101*10 6+=+2w-列 (18) 图7线性拟合图像 Fig.7 Linear fitting image 此为关于k的一元二次方程,所以当且仅当 2.3图像的显著性检测 2-0w-列 图像的显著性区域检测是近年来计算机视觉 和图像预处理领域的研究热点之一,其本质是模 2-时 了- (19) 拟人眼观察自然界图像时的视觉选择性注意机 b=-k元 制,是一种视觉注意模型。显著区域检测在图 时,误差Q取最小值,式(19)即为k与b的线性回归 像检索、图像分割、目标识别s等诸多领域有广 拟合方程组。将测量的数据代入式(19)中,得到 泛的应用。 b=37474.28,k=22.0778其中测量得到的数据(已 本文采用CHENG的基于直方图对比度(histo- 知基线距离T=62mm)如表1所示。 gram contrast,.HC)的图像像素显著性值检测方法u。 该方法利用人的视觉系统对高对比度的视觉信号 表1拟合焦距所测得的数据 Table 1 Measured data by fitting the focal length 比较敏感的特点,首先定义一个像素的显著性值 S(),根据该方法的原理,一个像素的显著性值与 距离Dmm 相差(-x) 测量的焦距F./mm 它和图像中其他像素颜色的对比度相关,所以在 334 135 727.3 图像中像素4的显著性定义为 366 124 732.0 Sw=∑Du,0 (20) 433 108 754.3 园 517 94 783.8 式中DI,)为像素I,与像素I,在L×a×b空间的颜色 556 89 798.1 距离度量。 586 86 812.8 将式(20)按照像素顺序展开得到: S()=DI,I)+D(L,2)+…+DL,)(21) 624 81 815.2 可以看出,由于没有考虑空间的关系,在这种 667 77 828.4 定义下,具有相同颜色值的像素会具有相同的显 706 75 854.0 著性值,因此把具有相同颜色值c的像素归在一 784 69 872.5 起,可以得到每个颜色的显著性值 811 67 876.4 sw=so=∑fD6,e) (22) 836 6 889.9 884 64 912.5 式中:为c像素,的颜色值,n为图像中所含有的颜 917 62 917.0 色总数,为在图像I中颜色c出现的概率。 968 60 936.8 图8与图9为显著性检测的实验效果图。 1011 58 945.8 2.4目标区域的提取 在得到目标物体的显著图后,首先对显著图 实验所得线性回归方程拟合所得图像如图7 进行腐蚀与膨胀操作,去除显著图中的噪点干 所示。 扰,如图10所示。随后根据显著图中得到的目标
k 与 b 的值误差最小,即要求误差平方和 Q = ∑n i=1 (kxi +b−yi) 2 (16) 最小,先求出x与 y 的平均值x¯与 y¯,将式 (16) 变形得 Q = ∑n i=1 [ (b+kx¯ −y¯)−(yi −y¯)+k (xi − x¯) ]2 (17) 将平方开出,并整理得 Q =k 2∑n i=1 (xi − x¯) 2 −2k ∑n i=1 (xi − x¯) (yi −y¯)+ n(b+k · x¯ −y¯) 2 + ∑n i=1 (yi −y¯) 2 (18) 此为关于 k 的一元二次方程,所以当且仅当 k = ∑n i=1 (xi − x¯y¯)(yi −y¯) ∑n i=1 (xi − x¯) 2 = ∑n i=1 xiyi −nx¯y¯ ∑n i=1 x 2 i −nx¯ 2 b = y¯ −k · x¯ (19) Q k b b = 37 474.28 k = 22.077 8 T 时,误差 取最小值,式 (19) 即为 与 的线性回归 拟合方程组。将测量的数据代入式 (19) 中,得到 , 其中测量得到的数据 (已 知基线距离 =62 mm) 如表 1 所示。 表 1 拟合焦距所测得的数据 Table 1 Measured data by fitting the focal length 距离 D /mm 相差 (xl − xr) 测量的焦距 Fx /mm 334 135 727.3 366 124 732.0 433 108 754.3 517 94 783.8 556 89 798.1 586 86 812.8 624 81 815.2 667 77 828.4 706 75 854.0 784 69 872.5 811 67 876.4 836 66 889.9 884 64 912.5 917 62 917.0 968 60 936.8 1 011 58 945.8 实验所得线性回归方程拟合所得图像如图 7 所示。 2.3 图像的显著性检测 图像的显著性区域检测是近年来计算机视觉 和图像预处理领域的研究热点之一,其本质是模 拟人眼观察自然界图像时的视觉选择性注意机 制,是一种视觉注意模型[14]。显著区域检测在图 像检索、图像分割、目标识别[15-17]等诸多领域有广 泛的应用。 S (Ik) I Ik 本文采用 CHENG 的基于直方图对比度 (histogram contrast, HC) 的图像像素显著性值检测方法[11]。 该方法利用人的视觉系统对高对比度的视觉信号 比较敏感的特点,首先定义一个像素的显著性值 ,根据该方法的原理,一个像素的显著性值与 它和图像中其他像素颜色的对比度相关,所以在 图像 中像素 的显著性定义为 S (Ik) = ∑ ∀Ii∈I D(Ik ,Ii) (20) D(Ik 式中 ,Ii) 为像素 Ik与像素 Ii在 L×a×b 空间的颜色 距离度量。 将式 (20) 按照像素顺序展开得到: S (Ik) = D(Ik ,I1)+ D(Ik ,I2)+···+ D(Ik ,In) (21) cj 可以看出,由于没有考虑空间的关系,在这种 定义下,具有相同颜色值的像素会具有相同的显 著性值,因此把具有相同颜色值 的像素归在一 起,可以得到每个颜色的显著性值 S (Ik) = S (cl) = ∑n j=1 fjD(cl , cj) (22) cl Ik n fj cj 式中:为 像素 的颜色值, 为图像中所含有的颜 色总数, 为在图像 I 中颜色 出现的概率。 图 8 与图 9 为显著性检测的实验效果图。 2.4 目标区域的提取 在得到目标物体的显著图后,首先对显著图 进行腐蚀与膨胀操作,去除显著图中的噪点干 扰,如图 10 所示。随后根据显著图中得到的目标 6.2 6.0 5.8 5.6 5.4 5.2 5.0 4.8 4.6 4.4 y x 3 4 5 6 7 8 9 10 11 ×104 ×102 数据 拟合曲线 图 7 线性拟合图像 Fig. 7 Linear fitting image ·916· 智 能 系 统 学 报 第 13 卷
第6期 安果维,等:基于显著性检测的双目测距系统 ·917· 区域信息对原图做与运算,则目标区域内像素值 (speed up robust features,surf)。surf检测算子与 不变,目标区域外像素值置零,将目标区域从原 sf检测算子类似,首先构建尺度空间,初步检测 图中提取出来,如图11所示。在此基础在上,对 极值点,在确定特征点主方向后确定特征点描述 所得到的图像信息进行判断,只对像素不为零的 子。与sit对图像构造金字塔图不同,suf是通过 值进行特征点匹配,处理流程如图12所示。 改变滤波器的大小构造金字塔图层构建尺度空 间,在此基础之上采用Hessian矩阵检测极值点, 对检测的速度有很大提高。 图8显著性检测前效果图 Fig.8 Renderings before significance detection 图11目标区域从原图中提取出后效果图 Fig.11 Renderings after extracted the target area from original image 得到目标 Y 进行 区域 先腐蚀 与原图 判断像素 心配 显著图 后膨胀 做与运算 是否为零 操作 不进行 匹配操作 图9显著性检测后效果图 图12目标区域处理流程图 Fig.9 Renderings after significance detection Fig.12 The flowchart of target area processing 2.5.1 Hessian矩阵确定特征点 在surf算子检测特征点的过程中Hessian矩 阵判别式尤为关键,在构建尺度空间后,当Hessian 矩阵判别式的局部值最大时所检测出的即为待选 的特征点。在图像I中,点(x,)处尺度为σ,则其 Hessian矩阵为 H(x,y,d)= L(x,y,o)Lo(x,y,) Lm(x,y,σ) Ln(x,y,) 式中:L(xy,)表示高斯二阶偏导数在点(xy处 与图像I的卷积,L,(x,y,)与Ln(x,y,o)与此相同。 图10对显著图先腐蚀后膨胀效果图 为了方便计算且不影响效果,直接用框状滤波模 Fig.10 Renderings after erosion and dilate 板代替高斯的二阶偏导,如图13所示。 2.5surf算法特征点检测 在模板中用D、D、和Dn分别取代原矩阵中 由于SIFT算子在检测的过程中存在计算数 的Lr、Lg与Lr。所以得到近似Hessian矩阵的表示: 据大,耗时长的问题,Bay等提出了一种对尺度 detH=DD -(@D)2 (23) 和旋转具有鲁棒性的快速鲁棒的特征描述方法 由于高斯滤波与近似高斯滤波的差异性,用
区域信息对原图做与运算,则目标区域内像素值 不变,目标区域外像素值置零,将目标区域从原 图中提取出来,如图 11 所示。在此基础在上,对 所得到的图像信息进行判断,只对像素不为零的 值进行特征点匹配,处理流程如图 12 所示。 图 8 显著性检测前效果图 Fig. 8 Renderings before significance detection 图 9 显著性检测后效果图 Fig. 9 Renderings after significance detection 图 10 对显著图先腐蚀后膨胀效果图 Fig. 10 Renderings after erosion and dilate 2.5 surf 算法特征点检测 由于 SIFT 算子在检测的过程中存在计算数 据大,耗时长的问题,Bay 等 [8]提出了一种对尺度 和旋转具有鲁棒性的快速鲁棒的特征描述方法 (speed up robust features,surf)。surf 检测算子与 sift 检测算子类似,首先构建尺度空间,初步检测 极值点,在确定特征点主方向后确定特征点描述 子。与 sift 对图像构造金字塔图不同,surf 是通过 改变滤波器的大小构造金字塔图层构建尺度空 间,在此基础之上采用 Hessian 矩阵检测极值点, 对检测的速度有很大提高。 图 11 目标区域从原图中提取出后效果图 Fig. 11 Renderings after extracted the target area from original image 得到目标 区域 显著图 先腐蚀 后膨胀 与原图 做与运算 判断像素 是否为零 进行 匹配 操作 不进行 匹配操作 Y N 图 12 目标区域处理流程图 Fig. 12 The flowchart of target area processing 2.5.1 Hessian 矩阵确定特征点 (x, y) σ 在 surf 算子检测特征点的过程中 Hessian 矩 阵判别式尤为关键,在构建尺度空间后,当 Hessian 矩阵判别式的局部值最大时所检测出的即为待选 的特征点。在图像 I 中,点 处尺度为 ,则其 Hessian 矩阵为 H(x, y,σ) = [ Lxx(x, y,σ) Lxy(x, y,σ) Lxy(x, y,σ) Lyy(x, y,σ) ] Lxx(x, y,σ) (x, y) Lxy(x, y,σ) Lyy(x, y,σ) 式中: 表示高斯二阶偏导数在点 处 与图像 I 的卷积, 与 与此相同。 为了方便计算且不影响效果,直接用框状滤波模 板代替高斯的二阶偏导,如图 13 所示。 Dxx Dxy Dyy Lxx Lxy Lyy 在模板中用 、 、和 分别取代原矩阵中 的 、 与 。所以得到近似 Hessian 矩阵的表示: det H = DxxDyy −(ωDxy) 2 (23) 由于高斯滤波与近似高斯滤波的差异性,用 第 6 期 安果维,等:基于显著性检测的双目测距系统 ·917·
·918· 智能系统学报 第13卷 滤波响应的相对权重系数w来平衡Hessian矩阵 近,将这一配对剔除 行列式,一般取0.9。 D= (24) i=l Daeat nD,b.ser (25) 图13框状滤波模板代替高斯二阶偏导滤波 3算法效果与结果对比实验 Fig.13 Frame filter template instead of Gaussian second- order partial derivative filter 3.1显著性检测前后对比实验 2.5.2surf描述子 为了降低双目视觉测距的误差,降低特征匹 为了保证suf特征点的描述子具有旋转不变 配的错误率,本文首先对使用的相机进行了单目 的特性,需要确定特征点的主方向。以某个特征 标定,用标定后的参数对原始图像进行了畸变校 点为圆心,在半径为6σ的(σ为尺度因子)邻域内 正。在此基础之上本文采取了10组目标与角度 用边长为4c的Harr小波模板在X、Y方向上求取 不同的图片,图为应用显著性检测方法前后 Harr小波响应。用一个圆心角为π/3的扇形窗 surf算子匹配时间对比,可以看出在应用本文算 口,以特征点为圆心旋转遍历一个完整的圆形区 法之后,匹配时间缩短,实时性提高,如表2所示。 域,计算每个扇形窗口包括的图像点的Harr小波 表2算法处理前后时间对比 响应总和,其中最大的响应即为该特征点的主 Table 2 The time comparison before and after the algorithm processing ms 方向。 目标序号算法处理前匹配时间算法处理后匹配时间 在此基础之上,构造一个带方向(前面计算的 312 125 主方向)的正方形区域,边长设定为20σ,首先把 2 281 47 区域划分成16(4×4)个子域,对每个子域计算其 3 297 62 主方向与垂直方向上的Harr小波响应,并计算 296 63 ∑d、∑d,、∑dd。这样每个子区域可以用一 5 265 78 个矢量v=(∑d,∑d∑d4l,∑d来表示。将区域 6 312 62 内得到的64个值组合起来,就得到了此特征点 1 328 94 的surf特征描述子。 8 249 47 2.5.3Surf算法特征,点匹配 9 281 47 双目立体视觉系统中最关键且最重要的一步 10 281 6 是立体特征匹配。在双目立体视觉系统中的立 3.2拟合焦距前后对比实验 体匹配通常是通过寻找两幅图像中能够检测到的 为了测量距离更加准确,本文对相机的焦距 具有明显特征的元素如角点,边缘或者区域进行 进行了焦距拟合。并与未进行焦距拟合的实验结 匹配。由双目立体视觉测距原理可知图像匹配的 果进行对比。表中拟合前的测量值为将目标1与 准确度决定了测量距离的精度9。 目标2实验数据计算所得焦距代入测距模型所得 suf特征匹配采用近邻欧氏距离比例法,通 到的实验结果。拟合后测量值为进行线性拟合后 过对图像中特征向量属性进行判断,来达到两幅 所得焦距代入测距模型中,所得到的实验结果, 图像匹配成功的目的2。在本文算法过程中,首 如表3、表4所示。 先计算左图中局部特征点的特征向量(x,,…,x) 可以看出,在该测距模型中,与拟合实验中目 与右图中待匹配特征点特征向量(x,x5,…,x)的欧 标1、目标2比较接近的距离误差较小,随着测量 氏距离,即式(24),通过比较最近邻欧式距离和次 距离与目标1、目标2的距离的差距的增大,测量 近邻欧式距离之比来剔除因为噪声干扰而引起 误差增大较快。使用进行线性拟合后的焦距测量 的匹配错误的特征点,即式(25)。如果大于某个 的实验结果,相对于未进行线性拟合算出的焦距 阈值,则认为对应的最近邻欧氏距离匹配点与次 测量的实验结果,随着距离的增加误差增大较 近邻欧氏距离匹配点和其他待匹配特征点都很接 慢,测量的距离准确性增高明显
滤波响应的相对权重系数ω来平衡 Hessian 矩阵 行列式,一般取 0.9。 1 1 1 −1 1 −2 −1 图 13 框状滤波模板代替高斯二阶偏导滤波 Fig. 13 Frame filter template instead of Gaussian secondorder partial derivative filter 2.5.2 surf 描述子 σ σ σ 为了保证 surf 特征点的描述子具有旋转不变 的特性,需要确定特征点的主方向。以某个特征 点为圆心,在半径为 6 的 ( 为尺度因子) 邻域内 用边长为 4 的 Harr 小波模板在 X、Y 方向上求取 Harr 小波响应。用一个圆心角为 π/3 的扇形窗 口,以特征点为圆心旋转遍历一个完整的圆形区 域,计算每个扇形窗口包括的图像点的 Harr 小波 响应总和,其中最大的响应即为该特征点的主 方向。 σ ∑ dx ∑ dy ∑ |dx | ∑ dy v = ( ∑ dx , ∑ dy, ∑ |dx |, ∑ dy ) 在此基础之上,构造一个带方向 (前面计算的 主方向) 的正方形区域,边长设定为 20 ,首先把 区域划分成 16(4×4) 个子域,对每个子域计算其 主方向与垂直方向上的 Harr 小波响应,并计算 、 、 、 。这样每个子区域可以用一 个矢量 来表示。将区域 内得到的 64 个值组合起来,就得到了此特征点 的 surf 特征描述子。 2.5.3 surf 算法特征点匹配 双目立体视觉系统中最关键且最重要的一步 是立体特征匹配[18]。在双目立体视觉系统中的立 体匹配通常是通过寻找两幅图像中能够检测到的 具有明显特征的元素如角点,边缘或者区域进行 匹配。由双目立体视觉测距原理可知图像匹配的 准确度决定了测量距离的精度[19]。 (x l 1 , x l 2 ,··· , x l n ) (x r 1 , x r 2 ,··· , x r n ) η η surf 特征匹配采用近邻欧氏距离比例法,通 过对图像中特征向量属性进行判断,来达到两幅 图像匹配成功的目的[20]。在本文算法过程中,首 先计算左图中局部特征点的特征向量 与右图中待匹配特征点特征向量 的欧 氏距离,即式 (24),通过比较最近邻欧式距离和次 近邻欧式距离之比 来剔除因为噪声干扰而引起 的匹配错误的特征点,即式 (25)。如果 大于某个 阈值,则认为对应的最近邻欧氏距离匹配点与次 近邻欧氏距离匹配点和其他待匹配特征点都很接 近,将这一配对剔除[18]。 D = vt∑n i=1 (x l i − x r i ) 2 (24) η = Dnear Dsub_near (25) 3 算法效果与结果对比实验 3.1 显著性检测前后对比实验 为了降低双目视觉测距的误差,降低特征匹 配的错误率,本文首先对使用的相机进行了单目 标定,用标定后的参数对原始图像进行了畸变校 正。在此基础之上本文采取了 10 组目标与角度 不同的图片,图为应用显著性检测方法前 后 surf 算子匹配时间对比,可以看出在应用本文算 法之后,匹配时间缩短,实时性提高,如表 2 所示。 表 2 算法处理前后时间对比 Table 2 The time comparison before and after the algorithm processing ms 目标序号 算法处理前匹配时间 算法处理后匹配时间 1 312 125 2 281 47 3 297 62 4 296 63 5 265 78 6 312 62 7 328 94 8 249 47 9 281 47 10 281 46 3.2 拟合焦距前后对比实验 为了测量距离更加准确,本文对相机的焦距 进行了焦距拟合。并与未进行焦距拟合的实验结 果进行对比。表中拟合前的测量值为将目标 1 与 目标 2 实验数据计算所得焦距代入测距模型所得 到的实验结果。拟合后测量值为进行线性拟合后 所得焦距代入测距模型中,所得到的实验结果, 如表 3、表 4 所示。 可以看出,在该测距模型中,与拟合实验中目 标 1、目标 2 比较接近的距离误差较小,随着测量 距离与目标 1、目标 2 的距离的差距的增大,测量 误差增大较快。使用进行线性拟合后的焦距测量 的实验结果,相对于未进行线性拟合算出的焦距 测量的实验结果,随着距离的增加误差增大较 慢,测量的距离准确性增高明显。 ·918· 智 能 系 统 学 报 第 13 卷
第6期 安果维,等:基于显著性检测的双目测距系统 ·919· 表3焦距拟合前测距实验结果对比 参考文献: Table 3 Distance measurement results before fitting of focal length [1]杨景豪,刘巍,刘阳,等.双目立体视觉测量系统的标定 目标 实际距 拟合前测 拟合前测量 .光学精密工程,2016,24(2):300-308. 序号 离/mm 量值/mm 误差% YANG Jinghao,LIU Wei,LIU Yang,et al.Calibration of 300 306.63 1.65 binocular vision measurement system[J].Optics and preci- 2 400 397.43 0.64 sion engineering,2016,24(2):300-308. [2]邱雪娜,刘士荣.基于序贯检测机制的双目视觉运动目 3 500 485.03 2.99 标跟踪与定位方法.机器人,2011,33(1):181-190. 4 600 565.54 5.74 QIU Xuena,LIU Shirong.Moving objects tracking and 5 700 641.72 8.33 localization with binocular vision based on sequential de- 6 800 714.25 10.72 tection mechanism[J].Robot,2011,33(1):181-190 [3]赵振庆,叶东,陈刚,等.垂直直线特征的双目视觉位姿 7 900 782.48 13.06 测量方法[).光学学报,2014,34(10:1015003. 1000 848.19 15.19 ZHAO Zhenqing,YE Dong,CHEN Gang,et al.Binocular 9 1100 909.90 17.28 vision method of measuring pose based on perpendicular 10 1200 970.41 19.13 lines[J].Acta optica sinica,2014,34(10):1015003 [4]刘俸材,谢明红,王伟.双目视觉的立体标定方法[).计 表4焦距拟合后测距实验结果对比 算机工程与设计,2011,32(4):1508-1512. Table 4 Distance measurement results after fitting of LIU Fengcai,XIE Minghong,WANG Wei.Stereo calibra- focal length tion method of binocular vision[J].Computer engineering 目标 实际距 拟合后测 拟合后测量 and design.2011,32(4):1508-1512. 序号 离/mm 量值/mm 误差% [5]郭慧,刘亚菲,王勇,等.大型齿轮工件焊接的双目视觉 1 300 301.85 0.62 测量标定.东华大学学报:自然科学版,2013,39(4): 2 400 403.65 0.92 455-459 3 500 508.21 1.64 GUO Hui,LIU Yafei,WANG Yong,et al.Calibration of 4 600 610.23 1.71 binocular vision measurement of large gear workpiece welding[J].Journal of Donghua university:natural science. 5 700 712.58 1.80 2013,39(4:455-459. 6 800 815.76 1.97 [6]历艳琨,毛建旭,刘仁明.基于特征点的3D人脸姿态跟 7 900 918.25 2.02 踪).电子测量与仪器学报,2016,30(4):605-612. 8 1000 1022.36 2.24 LI Yankun,MAO Jianxu,LIU Renming.3D face pose tracking based on feature matching[J].Journal of electron- 9 1100 1125.71 2.33 ic measurement and instrument,2016,30(4):605-612 1200 1233.91 2.83 []张国刚,徐向辉.基于加权纹理特征的SAR图像目标识 别算法.国外电子测量技术,2015,349):22-25 4结束语 ZHANG Guogang,XU Xianghui.SAR image target recog- nition algorithms based on weighted texture features[J]. 本文主要提出了一种在双目视觉测距系统中 Foreign electronic measurement technology,2015,34(9): 通过显著性检测方法识别出目标物体,在应用特 22-25. 征点来进行双目视觉中左右视图的匹配,来准确 [8]BAY H.TUYTELAARS T.VAN GOOI L.SURF: 获得物体距离信息的方法。本文在对相机畸变校 speeded Up robust features[C]//Proceedings of the 9th 正后,对相机进行了焦距拟合,与相机拟合前的 European conference on Computer Vision.Graz,Austria, 实验结果进行对比,得到了误差更小的实验结 2006:404-417. 果。本文方法旨在为旋翼飞行器中机械臂系统提 [9]余小欢,韩波,张字,等.基于双目视觉的微型无人机室 供待抓取物体的深度信息。通过实验可得,本文 内3维地图构建U.信息与控制,2014,43(4):392-397. 方法得到的目标物体的深度信息准确可靠,为旋 YU Xiaohuan,HAN Bo,ZHANG Yu,et al.Binocular ste- 翼飞行器机载机械臂的任务抓取提供了可靠准确 reo vision based 3D mapping for micro aerial vehicles in 的数据支持。 an indoor environment[J].Information and control,2014
表 3 焦距拟合前测距实验结果对比 Table 3 Distance measurement results before fitting of focal length 目标 序号 实际距 离/mm 拟合前测 量值/mm 拟合前测量 误差/% 1 300 306.63 1.65 2 400 397.43 0.64 3 500 485.03 2.99 4 600 565.54 5.74 5 700 641.72 8.33 6 800 714.25 10.72 7 900 782.48 13.06 8 1 000 848.19 15.19 9 1 100 909.90 17.28 10 1 200 970.41 19.13 表 4 焦距拟合后测距实验结果对比 Table 4 Distance measurement results after fitting of focal length 目标 序号 实际距 离/mm 拟合后测 量值/mm 拟合后测量 误差/% 1 300 301.85 0.62 2 400 403.65 0.92 3 500 508.21 1.64 4 600 610.23 1.71 5 700 712.58 1.80 6 800 815.76 1.97 7 900 918.25 2.02 8 1 000 1 022.36 2.24 9 1 100 1 125.71 2.33 10 1 200 1 233.91 2.83 4 结束语 本文主要提出了一种在双目视觉测距系统中 通过显著性检测方法识别出目标物体,在应用特 征点来进行双目视觉中左右视图的匹配,来准确 获得物体距离信息的方法。本文在对相机畸变校 正后,对相机进行了焦距拟合,与相机拟合前的 实验结果进行对比,得到了误差更小的实验结 果。本文方法旨在为旋翼飞行器中机械臂系统提 供待抓取物体的深度信息。通过实验可得,本文 方法得到的目标物体的深度信息准确可靠,为旋 翼飞行器机载机械臂的任务抓取提供了可靠准确 的数据支持。 参考文献: 杨景豪, 刘巍, 刘阳, 等. 双目立体视觉测量系统的标定 [J]. 光学精密工程, 2016, 24(2): 300–308. YANG Jinghao, LIU Wei, LIU Yang, et al. Calibration of binocular vision measurement system[J]. Optics and precision engineering, 2016, 24(2): 300–308. [1] 邱雪娜, 刘士荣. 基于序贯检测机制的双目视觉运动目 标跟踪与定位方法[J]. 机器人, 2011, 33(1): 181–190. QIU Xuena, LIU Shirong. Moving objects tracking and localization with binocular vision based on sequential detection mechanism[J]. Robot, 2011, 33(1): 181–190. [2] 赵振庆, 叶东, 陈刚, 等. 垂直直线特征的双目视觉位姿 测量方法[J]. 光学学报, 2014, 34(10): 1015003. ZHAO Zhenqing, YE Dong, CHEN Gang, et al. Binocular vision method of measuring pose based on perpendicular lines[J]. Acta optica sinica, 2014, 34(10): 1015003. [3] 刘俸材, 谢明红, 王伟. 双目视觉的立体标定方法[J]. 计 算机工程与设计, 2011, 32(4): 1508–1512. LIU Fengcai, XIE Minghong, WANG Wei. Stereo calibration method of binocular vision[J]. Computer engineering and design, 2011, 32(4): 1508–1512. [4] 郭慧, 刘亚菲, 王勇, 等. 大型齿轮工件焊接的双目视觉 测量标定[J]. 东华大学学报: 自然科学版, 2013, 39(4): 455–459. GUO Hui, LIU Yafei, WANG Yong, et al. Calibration of binocular vision measurement of large gear workpiece welding[J]. Journal of Donghua university: natural science, 2013, 39(4): 455–459. [5] 历艳琨, 毛建旭, 刘仁明. 基于特征点的 3D 人脸姿态跟 踪[J]. 电子测量与仪器学报, 2016, 30(4): 605–612. LI Yankun, MAO Jianxu, LIU Renming. 3D face pose tracking based on feature matching[J]. Journal of electronic measurement and instrument, 2016, 30(4): 605–612. [6] 张国刚, 徐向辉. 基于加权纹理特征的 SAR 图像目标识 别算法[J]. 国外电子测量技术, 2015, 34(9): 22–25. ZHANG Guogang, XU Xianghui. SAR image target recognition algorithms based on weighted texture features[J]. Foreign electronic measurement technology, 2015, 34(9): 22–25. [7] BAY H, TUYTELAARS T, VAN GOOl L. SURF: speeded Up robust features[C]//Proceedings of the 9th European conference on Computer Vision. Graz, Austria, 2006: 404–417. [8] 余小欢, 韩波, 张宇, 等. 基于双目视觉的微型无人机室 内 3 维地图构建[J]. 信息与控制, 2014, 43(4): 392–397. YU Xiaohuan, HAN Bo, ZHANG Yu, et al. Binocular stereo vision based 3D mapping for micro aerial vehicles in an indoor environment[J]. Information and control, 2014, [9] 第 6 期 安果维,等:基于显著性检测的双目测距系统 ·919·
·920· 智能系统学报 第13卷 43(4):392-397 jects,faces,and flowers using natural image statistics [10]公衍超,万帅,杨楷芳,等.利用双目视觉视频的实时三 [Cl//Proceedings of 2010 IEEE Conference on Computer 维裸手手势识别)西安电子科技大学学报:自然科学 Vision and Pattern Recognition.San Francisco,USA, 版,2014,41(4):130-136. 2010:2472-2479. GONG Yanchao,WAN Shuai,YANG Kaifang,et al. [18]VALLERAND S,KANBARA M.YOKOYA N.Binocu- Real-time 3D bare-hand gesture recognition using binocu- lar vision-based augmented reality system with an in- lar vision videos[J].Journal of Xidian university,2014, creased registration depth using dynamic correction of 41(4):130-136. feature positions[C]//Proceedings of 2003 IEEE Virtual [11]CHENG Mingming,ZHANG Guoxin,MITRA N J,et al. Reality.Los Angeles,USA,2003:271-272 Global contrast based salient region detection[C]//Pro- [19]BANKS J,CORKE P.Quantitative evaluation of match- ceedings of 2011 IEEE Conference on Computer Vision ing methods and validity measures for stereo Vision[J]. and Pattern Recognition.Providence,RI,USA,2011: The international journal of robotics research,2001, 409-416. 20(7):512-532. [12]ZHANG Zhengyou.Flexible camera calibration by view- [20]BAY H,ESS A,TUYTELAARS T,et al.Speeded-Up ro- ing a plane from unknown orientations[Cl//Proceedings of bust features(SURF)[J].Computer vision and image un- the 7th IEEE International Conference on Computer Vis- derstanding,2008,110(3):346-359 ion.Kerkyra,Greece,2002,1:666-673. 作者简介: [13】丁莹,范静涛,宋天喻.双目立体视觉检测系统正向最 安果维.男.1992年生,硕士研究 优化设计方法研究.仪器仪表学报,2016,37(3): 生,主要研究方向为机器视觉与图像 650-657 处理。 DING Ying,FAN Jingtao,SONG Tianyu.Optimal for- ward design method for the binocular stereo vision in- spection system[J].Chinese journal of scientific instru- ment,2016,37(3):650-657. [14]HOU Xiaodi.ZHANG Liging.Saliency detection:a spec- 王耀南,男,1957年生,教授,主 tral residual approach[C]//Proceedings of 2007 IEEE 要研究方向为智能控制理论与智能信 息处理,主持国家级项目多项,发表学 Conference on Computer Vision and Pattern Recognition. 术论文320余篇,著作8部。 Minneapolis,USA,2007:1-8. [15]YAN Qiong,XU Li,SHI Jianping,et al.Hierarchical sali- ency detection[C]//Proceedings of 2013 IEEE Confer- ence on Computer Vision and Pattern Recognition.Port- land,USA2013:1155-1162 周显恩,男,1988年生,博士研究 生,主要研究方向为模式识别、图像处 [16]GOFERMAN S.ZELNIK-MANOR L.TAL A.Context- 理,发表学术论文10余篇。 aware saliency detection[Cl//Proceedings of 2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco,USA,2010:2376-2383 [17]KANAN C.COTTRELL G.Robust classification of ob-
43(4): 392–397. 公衍超, 万帅, 杨楷芳, 等. 利用双目视觉视频的实时三 维裸手手势识别[J]. 西安电子科技大学学报: 自然科学 版, 2014, 41(4): 130–136. GONG Yanchao, WAN Shuai, YANG Kaifang, et al. Real-time 3D bare-hand gesture recognition using binocular vision videos[J]. Journal of Xidian university, 2014, 41(4): 130–136. [10] CHENG Mingming, ZHANG Guoxin, MITRA N J, et al. Global contrast based salient region detection[C]//Proceedings of 2011 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI, USA, 2011: 409–416. [11] ZHANG Zhengyou. Flexible camera calibration by viewing a plane from unknown orientations[C]//Proceedings of the 7th IEEE International Conference on Computer Vision. Kerkyra, Greece, 2002, 1: 666–673. [12] 丁莹, 范静涛, 宋天喻. 双目立体视觉检测系统正向最 优化设计方法研究[J]. 仪器仪表学报, 2016, 37(3): 650–657. DING Ying, FAN Jingtao, SONG Tianyu. Optimal forward design method for the binocular stereo vision inspection system[J]. Chinese journal of scientific instrument, 2016, 37(3): 650–657. [13] HOU Xiaodi, ZHANG Liqing. Saliency detection: a spectral residual approach[C]//Proceedings of 2007 IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, USA, 2007: 1–8. [14] YAN Qiong, XU Li, SHI Jianping, et al. Hierarchical saliency detection[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA, 2013: 1155–1162. [15] GOFERMAN S, ZELNIK-MANOR L, TAL A. Contextaware saliency detection[C]//Proceedings of 2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, USA, 2010: 2376–2383. [16] [17] KANAN C, COTTRELL G. Robust classification of objects, faces, and flowers using natural image statistics [C]//Proceedings of 2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, USA, 2010: 2472–2479. VALLERAND S, KANBARA M, YOKOYA N. Binocular vision-based augmented reality system with an increased registration depth using dynamic correction of feature positions[C]//Proceedings of 2003 IEEE Virtual Reality. Los Angeles, USA, 2003: 271–272. [18] BANKS J, CORKE P. Quantitative evaluation of matching methods and validity measures for stereo Vision[J]. The international journal of robotics research, 2001, 20(7): 512–532. [19] BAY H, ESS A, TUYTELAARS T, et al. Speeded-Up robust features (SURF)[J]. Computer vision and image understanding, 2008, 110(3): 346–359. [20] 作者简介: 安果维,男,1992 年生,硕士研究 生,主要研究方向为机器视觉与图像 处理。 王耀南,男,1957 年生,教授,主 要研究方向为智能控制理论与智能信 息处理,主持国家级项目多项,发表学 术论文 320 余篇,著作 8 部。 周显恩,男,1988 年生,博士研究 生,主要研究方向为模式识别、图像处 理,发表学术论文 10 余篇。 ·920· 智 能 系 统 学 报 第 13 卷