第6卷第4期 智能系统学报 Vol.6 No.4 2011年8月 CAAI Transactions on Intelligent Systems Aug.2011 doi:10.3969/i.i8sn.1673-4785.2011.04.004 双目立体视觉的目标识别与定位 尚倩2,阮秋琦2,李小利2 (1.北京交通大学信息科学研究所,北京100044:2.北京交通大学现代信息科学与网络技术北京市重点实验室,北京100044) 摘要:双目立体视觉系统可以实现对目标的识别与定位.此系统包含摄像机标定、图像分割、立体匹配和三维测距 4个模块.在摄像机标定部分,提出了基于云台转角的外参数估计方法.该方法可以精确完成摄像头旋转情况下外参 的估计,增强了机器人的视觉功能.并利用广茂达机器人系统,基于改进的双目视觉系统进行目标识别与定位,以此 结果作为依据控制机器人的手臂进行相应运动,最终实现了对目标物体的抓取,验证了提出方法的可行性. 关键词:双目立体视觉;摄像机标定;图像分割;立体匹配;三维测距 中图分类号:TP18文献标识码:A文章编号:1673-4785(2011)04030309 Target recognition and location based on binocular stereo vision SHANG Qian'2,RUAN Qiugi'2,LI Xiaoli1.2 (1.Institute of Information Science,Beijing Jiaotong University,Beijing 100044,China;2.Beijing Key Laboratory of Advanced In- formation Science and Network Technology,Beijing 100044,China) Abstract:A binocular stereo vision system can be used for target recognition and location.This system consists of four modules,namely camera calibration,image segment,stereo matching,and binocular distance.furthermore, in the calibration section,a method of estimating the outer parameters based on the head angle was studied.In the experiment,this method could estimate the outer parameters accurately when the camera rotated,enhancing the vi- sion function of the system.Then this improved binocular system was realized by the Grandar Robot platform.It was used for target recognition and location,and the results were used to control the robot motion.In the end,the target could be captured successfully,so the proposed method was proven to be feasible. Keywords:binocular stereo vision;camera calibration;image segmentation;stereo matching;binocular distance 人类获取的信息70%~80%来自视觉,视觉是 双目立体视觉技术可以很好地模拟人眼的功 人类认识和改造世界的一个主要途径.计算机视觉 能,并且可以对三维世界进行立体感知,因此,在机 是使用计算机及相关设备对生物视觉的一种模拟, 器视觉的研究中发挥着越来越重要的作用.文中着 它的主要任务就是通过对采集的图片或视频进行处 重研究双目立体视觉下目标的识别与定位技术,双 理以获得相应场景的三维信息山, 目立体视觉系统主要包括摄像机标定、图像分割、立 根据视觉传感器的个数,计算机视觉可以分为: 体匹配和三维测距4个模块.传统的摄像机标定技 单目视觉系统、双目视觉系统和多目视觉系统 术一旦完成标定,摄像机相对于世界坐标系的位置 单目视觉系统只通过一个视觉传感器来获取外界的 就不能发生变化,否则,就需要重新标定2].但从实 视觉信息,方式简单,但是只能获得目标的二维空间 际应用角度,为了更好地进行目标的识别与定位,摄 信息.而双目和多目视觉系统比较复杂,一般具备获 像头需要进行相应偏转.针对这个特点,提出了一种 取三维空间信息的能力,但实时性是双目和多目视 基于云台转角的外参数估计方法,经过误差分析,此 觉系统的最大挑战, 方法可以精确地完成摄像机旋转情况下对外参的估 收稿日期:2010-1209. 计,使机器人的云台在目标识别和定位过程中可以 基金项目:国家自然科学基金资助项目(60973060):高等学校博士学 科点专项科研基金资助项目(20080004001). 更加灵活地旋转,大大增强了该机器人的视觉功能, 通信作者:尚倩.E-mail:renxuefeier(@gmail.com. 最后,利用广茂达机器人系统作为实验平台,基于改
·304 智能系统学报 第6卷 进后的双目立体视觉系统进行目标的识别与定位, 面为世界坐标系的Z。=0的平面.这样,对于棋盘格 并以此对目标识别定位的结果作为依据来控制机器 平面上的每一个点,上述投影关系可以简化为 人和手臂的相应运动,从而成功地实现了机器人对 「X2 目标物体的准确抓取, A r r 1双目立体视觉系统 此系统的主要功能是完成对实际目标的识别与 定位,主要分为摄像机标定、图像分割、立体匹配、三 M=[X.Y.1]T,m=[wv1]T, 维重建4个模块. H=A[r12t]=h,h2h3]= 1.1摄像机标定 「hu hv hi3 1.1.1像机模型 ha h2 has 摄像机采集到的图像是典型的二维信息,要想根 Lhs1 h32 hsa- 据这个二维信息计算实际物体的三维信息,首先要建 则式(1)可以写成sm=HM,其中A为摄像机内部 立图像坐标系与世界坐标系的映射模型.本文使用的 摄像机模型为经典针孔模型,如图1所示34.其中, 参数,3为尺度因子,H称为单应性或投影矩阵,是 模板平面上点和它的像点之间的一个映射,如果已 XYZ为世界坐标系,XYZ。为摄像机坐标系,y 知模板点的空间坐标和图像坐标,那么就已知m和 为图像物理坐标系,w为图像像素坐标系, P(S F Z) M,可以求解单应性矩阵,利用这个矩阵就可以求解 摄像机的内外参数.其中,内参可以通过Choleski分 解得到,而利用矩阵A和H,就可以进一步求得外 参矩阵2,5],公式如式(2): r1=AA-h1,2=Ah2,3=T1×T2, =AA-hs=AihAhgl' 1 1 (2) 由于摄像机物理因素的影响,拍摄到的图片有 图1摄像机针孔模型 一定的畸变.畸变会对摄像机的标定结果产生一定 Fig.1 Camera pinhole model 的影响.采用张正友的方法对畸变进行矫正2) 上述模型存在如下的投影关系2,51: 1.1.3算法改进 「f.0 0 虽然张正友的方法可以精确地求得摄像机的内 Z 0 0 外参数,但是,参数一旦标定,摄像机坐标系相对于 01 01 0/ 世界坐标系的位置关系也就静止.而在本实验平台 中,摄像头会发生以下2种运动. 1)摄像头会随着机器人的运动而运动. MM, 2)机器人不动时,摄像头也可以通过云台发生 上下或左右的旋转. 上述2种运动都会导致摄像头的位置发生变 式中:f∫、、只与摄像机内部结构有关,所以 化,理论上就需要进行重新标定,这在实验中不具备 M1称为摄像机内部参数;R与t完全由摄像机坐标 可行性,因此,摄像机的内参采用张正友的标定方法 系相对世界坐标系的方位决定,故称为摄像机外部 获得,而对于外参,针对本实验平台的特点,在其算 参数.摄像机标定就是确定一部摄像机的内部参数 法基础上进行了改进,使得当摄像头位置移动时,不 和外部参数的过程2] 用重新标定就可以计算出移动后的外参.改进方法 1.1.2摄像机标定 归纳如下. 张正友等人提出了平面法来标定单摄像头2],本 1)世界坐标系转化为机器人坐标系. 文利用此方法来标定双目立体视觉平台,标定物选择 在标定算法中,世界坐标系一旦选定了就是个 了标准棋盘格.为了简化计算,假定棋盘格所在的平 绝对的量,然而,当机器人移动时,如果仍然使用原
第4期 尚倩,等:双目立体视觉的目标识别与定位 ·305· 来标定的外参进行重建,就意味着认为世界坐标系 [cos 00 sin 07 也随机器人发生了完全相同的移动,而在这个过程 R= 0 1 0 中,二者的转换关系并没有发生变化.因此,可以选 Lsin 00 cos 0 择一个相对不变的世界坐标系,即使机器人发生了 厂1 0 07 移动,仍然可以通过固定的转换关系转换到这个坐 R2=0 cos 02 sin 02 标系,即机器人坐标系,实验过程中,机器人坐标系 LO sin 02 c0s02」 的原点选在2台摄像机云台的中点,三维测距后,将 绕2个轴均有转动的旋转矩阵为 结果由世界坐标系转换到机器人坐标系,因为不关 R=R R2= 心目标物体在世界坐标系中的位置,只关心它与机 c0861 sin 0 sin 02 sin 0 cos 02 器人的相对位置, 0 c0s02 sin 02 因此,首先需要知道原始标定时世界坐标系与 Lsin 0-cos 0 sin 02 cos 0 cos 02 机器人坐标系的转换关系,原始标定环境中,两摄像 头平行地指向前方,即二者的云台旋转角度为0.在 摄像机发生旋转后,设原来的摄像机坐标系为 外参的标定结果中,假设左右摄像头的平移向量分 XYZ,而旋转后的摄像机坐标系为X2Y2Z2,则 2个摄像机坐标系之间的关系为 别为t1=(t1,1,ta),2=(t2,t2,t2),则左右摄像 机坐标系原点在原世界坐标系中的坐标分别为 (-t,-t1,-t)和(-t2,-t2,-ta),所以机器 人坐标系原点在原世界坐标系下的坐标为 -2,-42,-4,由于标定时,标定 21 21 2 式中:R。为上面求得的旋转矩阵,由于摄像头只有 物与机器人平面平行,所以旋转向量近似认为是0. 旋转没有平移,故T。=[000]. 假设一个点在世界坐标系下的坐标为(xm,y。, 由于原来的摄像机坐标系与世界坐标系的关系为 云),而其在机器人坐标系下的坐标为(x,y,,),则 二者的转换关系如下: 名=七n++妇 2 1 x=y。+红+2 (3) 故 2 Xa 8,=名n++2 T 2 R 通过式(3),就把世界坐标系转换到了机器人 坐标系, 2)基于云台转角的外参数估计. Xn X 上述改进虽然解决了机器人运动时外参的使用 T Y M 问题,可是不允许摄像头有上下左右的旋转,这样就 1 (4) Z 使机器人的等效视界大大减小,在一定程度上限制 了机器人的视觉功能.由于智能机器人的主要思路 rR。Tel[R 是模仿人的眼晴,所以希望摄像头可以根据目标的 从式(4)可推导出,M= 010],即为 位置,模拟人的双眼做相应地旋转,从而实现更加灵 摄像头旋转后的外参.这样,只要知道云台的转角, 活的三维测距, 就可以求得任意旋转角度下的外参.这一方法成功 在三维空间中,旋转可以分解为绕各自坐标轴 地解决了摄像头任意旋转时外参的计算问题, 的二维旋转,实验用的云台有2个转动轴,可以进行 1.2基于颜色相似度的图像分割 旋转角度可控可知的左右转动和上下转动.设左右 利用对目标图像的分割来显示目标识别的结 转动的角度为01,上下转动的角度为02,则左右旋 果.基于颜色相似度的图像分割可以满足鲁棒性和 转和上下旋转的旋转矩阵分别为: 实时性的要求,且具有良好的分割效果
·306· 智能系统学报 第6卷 1.2.1颜色相似度 用上一步骤中图像分割后获得的二值图像,计算其 从摄相机输入的彩色图像大多数是以RGB位 重心作为关键点实现立体匹配.二值图像的重心坐 图格式存储的,在RGB空间中,2种颜色之间的距 标计算如式(6)所示8, 离与人眼对色彩差别的感觉有较大偏差.而在HSV x句XC, 空间中,颜色分量相应的欧式距离与人眼感知的颜 m×n台 色差吻合得较好.HSV空间中的2种颜色C,={H1, y=1 (6) S1,V}和C2={L2,S2,V2之间的距离四定义为 ∑y mxn台 D(C1,C2)= 式中:(X,Y)为重心坐标,(x,y)为像素点坐标, (S;cos H -S,cos)+(S;sin H -S,sin)+(V -V). 0,像素为白色, 两色彩之间的相似度[8]定义为 =1,像素为黑色. 1.4三维重建 5(C.C:)=1-D(G,C:) 立体视觉从左、右观测点观看对象时,可以看到 √5 对象的偏差.这种偏差与观测点到被观测对象的距 1.2.2基于颜色相似度的图像分割 离有关.三维空间内的点在投影图像上的位置是由 分割的目的是要从复杂的背景中提取出具有特 三维空间中的某条直线决定的.因此,如果一个对象 定颜色特征的目标物体,具体实现步骤如下, 从其他视点观测也有同样的三维投影图像,那么被 1)颜色信息的统计及相似度计算. 观测对象的空间坐标就可以确定,2条视线的交点 设摄像头拍摄到的图片大小为m×n,首先计算 就是它的位置「8.这就是三维重建的过程。 图像中像素点颜色信息的均值,得到该图像的颜色 1.4.1基本模型 模板C1={H,S,V,}3,61.然后计算图像中每一像 空间点三维重建的基本模型们如图2所示 素点和标准颜色模板的颜色距离和相似度.其中: m×n台台 3君, m n V= 1 mXn台台 2)图像分割. 通过阈值的设置,可以完成对图像的分割.计算 图2空间点三维重建模型 如式(5)所示.影响分割效果的主要因素是阈值的 Fig.2 3-D reconstruction model 选取,找到一个合适的阈值是图像分割最关键的一 对于空间物体表面的任意一点P,被摄像头C: 步[8].本实验中,阈值取0.76~0.89能够得到比较 拍摄下来后,在图片上位于P1,被摄像头C2拍摄下 好的分割效果 来后,在图片上位于P2,但是无法仅仅通过P,或者 P=(0,0,0), S(Cg,C:)≤threshold; P2来得出P的三维位置,因为在直线OP或O2P P:=(255,255,255),S(C;,C.)>threshold. 上的任意一点P',其在图像上的位置都是P或P2 (5) 然而,现在利用2个摄像头来拍摄图片,这样就可以 式中:P:表示像素点被分割后的RGB像素值, 知道目标点位于OP,和O,P22条直线的交点,即 threshold为相似度阈值. 可以惟一确定目标点的三维位置, 3)初步的分割结束之后,图像中可能存在小范 1.4.2利用最小二乘法计算三维坐标 围的噪声点或微小的孔洞,可以利用传统的腐蚀和 假设2个摄像头的投影矩阵分别为M1和M2, 膨胀处理,使分割效果更加平滑。 可以得到如下2个等式[92] 1.3立体匹配 m12 立体匹配是双目视觉中最关键的一步,立体像 mi m14 对之间的差异是由摄像时观察点的不同引起的. m21 m23 本实验的目标物体形状较规则,故采用关键点 m31 m32 m3s m4儿1 匹配法,选择图像的重心作为关键点,具体做法是利
第4期 尚倩,等:双目立体视觉的目标识别与定位 .307· mi 求得P点的三维坐标91. m23 2实验平台 m品 以广茂达机器人作为实验平台,基于此改进的 式中:(山1,1)和(u2,2)分别为P点的成像点在2 双目立体视觉系统进行目标的识别和定位.并根据 幅图像中的齐次图像坐标.Z。和Z2分别为P点在2 定位结果控制机器人对目标进行抓取.图3为整个 个摄像机坐标系下的Z坐标;(X,Y,Z)为P点在 系统的流程图。 世界坐标系下的齐次坐标;利用最小二乘法,就可以 摄像机标定 摄像机不集图像 内 运动模块 图像预处理 立体匹配 颜色分割 图像重心 三维测 机器人系统 手臂模块 目标抓取 形态学处理 摄像机采集右图像 图3系统流程 Fig.3 Flow chart of the system 2.1硬件平台 转动范围为[-100°,100],竖直方向的转动范围为 该机器人的视觉系统是由2个Sony CCD摄像 [-25°,25°],同时具有130万像素和30帧/s的最 机组成的.每个摄像机包含2个自由度,即水平方向 高帧率.它的硬件系统如图4所示. 网络R45 串口 并口 主 机 PC总线 8路USB2.0接口 USB接▣ 视 无线 的CCD 网卡 纜 觉 动 图4机器人硬件系统 Fig.4 Hardware of the robot 2.2软件环境 为256MB,可以根据需要对其配置进行升级.开发 机器人的核心是普通PC,CPU为P43.0,RAM 环境为VC++6.0,在此基础上完成了完整的双目
·308 智能系统学报 第6卷 立体视觉系统开发.系统主界面如图5所示 从数据上看,左右摄像头的焦距基本相同,并 在此系统中,可完成相应的视频采集、云台控 且,它们各自的x轴和y轴的等效焦距也相同.摄像 制、三维测距、手臂控制和运动控制等功能。 头拍摄得到的图像尺寸为320×240,内参矩阵反映 的光心点坐标也基本在(160,120)附近.这些都符 合标定的预期.但是,为了更加准确地衡量标定误 差,需要进行重投影误差计算.假设(山1,)为角点 检测得到的图像坐标,而(2,2)为利用标定结果, 对实际三维坐标投影计算得到的图像坐标.利用式 (7)计算重投影误差,得到左摄像头的重投影误差 为0.13774,右摄像头的重投影误差为0.13554.误 差级别低于一个像素,说明此方法标定精度较高, ∑√(山-山)+(-) E= N (7) 对于基于云台转角的外参数估计方法,同样进 图5 软件系统主界面 行了误差分析.假设(,,4)为利用标定方法得 Fig.5 The main interface of the software system 到的平移向量,而(2,t,2,ta)为利用改进的估计方 法得到的平移向量.利用式(7)计算总体平均误差, 3 实验结果及分析 计算结果如表2所示, 3.1摄像机标定 √(t-ta)+(t1-t2)+(-a) 利用上文介绍的标定方法,对2个摄像头分别 3N 进行了标定,标定物选择标准棋盘格,标定过程中部 (8) 分角点提取结果如图6所示,左右摄像头参数的标 表2平移向量估计总体平均误差 定结果如表1所示 Table 2 The overall average error of estimated translation vector cm 摄像头 上下移动 左右移动 左摄像头 1.2949 1.5329 右摄像头 1.3953 1.6529 从误差计算结果来看,此外参估计方法可以比 较精确地估计摄像头旋转之后的外参 3.2图像分割 图6标定过程部分角点提取结果 图像分割采用的是上文提到基于颜色相似度的 Fig.6 Part of the corner extraction results 分割方法.首先将图像从RGB空间转换到HSV空 间,进而计算颜色模板,最后设置阈值进行图像分 表1摄像头标定结果 割.实验结果如图7~9所示 Table 1 Camera calibration results 参数 左摄像头 右摄像头 C278.47 0 173.35 厂279.24 0 169.70 内参 0 278.45119.67 0 279.12111.93 矩阵 0 0 1 0 0 1 外参 [2202150.04] [-2.27-2.240.04] 旋转 图7原始图像 [-41.3973.46563.32] [-2260280.28573.51] 平移 Fig.7 The original images
第4期 尚倩,等:双目立体视觉的目标识别与定位 ·309· 计算测量平均绝对误差.计算结果为2.3561mm, 从结果上来看,此方法可以比较精确地实现目标三 维测距, E= √(X1-X2)'+(Y1-Ya)2+(Z1-Z2) 图8转化为HSV空间的图像 2 Fig.8 The images transferred to HSV space (9) 图9图像分割结果 图12三维测距棋盘 Fig.9 Image segmenting results Fig.12 Chessboard gragh used for binocular distance 直接颜色分割的图像含有一定的噪声,采用形 3.5目标抓取 态学的腐蚀和膨胀处理后,结果如图10所示。 最后,利用广茂达机器人平台,实现了改进的双 目立体视觉系统.并以此对目标识别定位的结果作 为依据来控制机器人和手臂的相应运动,从而成功 地实现了机器人对目标物体的准确抓取. 广茂达机器人抓取目标的流程为:首先识别目 标物,然后根据目标在图像中的位置控制云台转动 直至目标位于视野正中,进而进行立体匹配,并对目 图10形态学处理后的结果 标物体实际位置进行定位,根据定位结果,首先控制 Fig.10 Morphological processing results 机器人靠近目标物体,进而控制手臂模块进行相应 3.3立体匹配 的角度旋转,最终完成抓取动作。 利用颜色分割得到二值化图像,计算目标物重 实验中,机器人可成功地抓取目标物体,抓取过 心坐标.重心标记结果如图11所示。 程部分截图如图13~15所示. 图11重心标记结果 Fig.11 The results of marking the center of gravity 图13程序开始时刻 3.4三维重建 Fig.13 At the beginning of the process 为了评测测距系统的功能和精度,对棋盘格中 的角点进行了三维重建.实验中,使得棋盘尽量与机 器人平行,以保证角点重建后的Z轴分量大致相 同.拍摄得到的棋盘图如图12所示.棋盘格的尺寸 年作 为28mm,角点的尺寸为7×5.利用Harris亚像素级 角点检测方法得到图像中的角点坐标,然后对其进 行三维重建.实验结果如表3所示.表3中,角点(1, 图14调整云台使目标位于视野中央 1)为棋盘图中左上角第一个角点,且所有角点按照 Fig.14 Adjust the head to let the target in the cen- 从左到右,从上到下的顺序排列.同样,利用式(9) ter of the vision
·310 智能系统学报 第6卷 续表3 角点角点三维重建坐标/mm 实测三维坐标/mm (5,3)(111.61,55.86,-1.06) (112,56,0) (5,4)(110.86,83.94,-1.44) (112,84,0) (5,5)(111.40,111.24,-1.31) (112,112,0) (5,6)(110.86,138.33,-1.77) (112,140,0 (5,7)(111.48,166.51,-1.67) (112,168,0) 4 结束语 本文完成的是一个基于改进了的双目立体视觉 的目标识别与定位系统.双目立体视觉系统主要包 括摄像机标定、图像分割、立体匹配和三维测距4个 模块.其中,在摄像机标定部分,针对系统的运动特 点,在原有算法的基础上提出了世界坐标系转化为 图15实际抓取过程截图 机器人坐标系和基于云台转角的外参数估计2种方 Fig.15 Actual capture process 法,经过误差分析,基于云台转角的外参数估计方法 表3三维重建坐标与实际坐标比较 可以精确地完成摄像机旋转情况下对外参的估计, Table 3 Comparison of 3-D reconstruction coordinates and 使云台在实验过程中可以更加灵活的旋转,增强了 actual coordinates 该机器人的视觉功能,最后,利用广茂达机器人系统 角点 角点三维重建坐标/mm 实测三维坐标/mm 作为实验平台,基于改进后的双目立体视觉系统进 (1,1)(-1.99,-0.979,-0.82) (0.0.0) 行目标的识别与定位,并以识别定位的结果作为依 (1,2)(-1.57,28.00,-0.48) (0,28,0) 据来控制机器人和手臂的相应运动,从而成功地实 (1,3) (-1.43,56.76,0.09) (0,56,0) 现了机器人对目标物体的准确抓取,此结果更充分 (1,4) (-1.67,83.93,0.96) (0,84,0) 验证了所提出方法的可行性。 (1,5) (-0.90,111.00,0.44) (0,112,0) (1,6) (-1.42,139.35,0.33) (0.140.0) 参考文献: (1,7) (-1.00,166.00,0.85) (0,168,0) [1]祝琨.基于双目视觉的运动物体实时跟踪与测距[D].北 (2,1) (26.94.0.06,0.57) (28,0,0) (2,2) 京:北京交通大学,2008:1-103. (26.88,28.85,0.73) (28,28,0) ZHU Kun.Real-time tracking and measuring of moving ob- (2,3) (26.60.56.04,0.02) (28,56,0) ject based on binocular vision D].Beijing:Beijing Jiao- (2,4) (27.43,84.22,-1.83) (28,84,0) (2,5) (26.21,111.10,-1.71) (28,112,0) tong University,2008:1-103. (2,6) (26.68,138.60,0.17) (28,140,0) [2]ZHANG Zhengyou.Flexible camera calibration by viewing a (2,7) (27.30,167.16,0.71) (28,168,0) plane from unknown orientations Cl//Proceedings of the (3,1) (54.50,-0.60,0.45) (56,0,0) IEEE Intemational Conference on Computer Vision. (3,2) (54.93,28.12,0.06) (56,28,0) Kerkyra,1999:666673. (3,3)(55.48,56.58,-1.89) (56,56,0) [3]吴亚鹏.基于双目视觉的运动目标跟踪与三维测量[D] (3,4) (55.15,83.52,-1.14) (56,84,0) 西安:西北大学,2008:158 (3,5)(54.99,111.50,-1.57) (56,112,0) WU Yapeng.Moving objects tracking and 3-D measurement (3,6) (55.62,138.41,0.03 (56,140.0) based on binocular vision[D].Xi'an:Northwest Universi- (3,7) (55.50,166.38,0.56) (56,168,0) ty,2008:1-58. (4,1) (84.04,0.66,0.77) (84,0,0) [4]CHEN Yuming.Research on binocular 3-D measurement (4,2) (83.37,27.85,0.52) (84,28,0) model based on grating projection[C]//PEITS 2009-2009 (4,3)(82.67,56.58,-1.20) (84,56,0) 2nd Conference on Power Electronics and Intelligent Trans- (4,4)(83.27,83.72,-1.60) (84,84,0) portation System.Shenzhen,China,2009:306-308 (4,5)(82.85,110.77,-1.44) (84,112,0) [5]ZHANG Zhengyou.A flexible new technique for camera cal- (4,6)(83.79,139.02,-1.31) (84,140.0) ibration[J].IEEE Transactions Pattern Analysis and Ma- (4,7)(82.73,165.68,-1.80) (84,168,0) chine Intelligence,2000,22(11):1330-1334. (5,1)(112.57,-0.07,0.66) (112.0,0) [6]翟中.图像分割与评价及图像三维表面重建研究[D].重 (5,2)(111.62,29.14,-1.83) (112,28,0) 庆:重庆大学,2009:1-108
第4期 尚催等:双目立体视觉的目标识别与定位 311。 QU Zhong.Research on image segmentation,evaluation and WANG Kejun,WEI Juan.Binocular stereo vision step by image three-dimensional surface reconstruction[D]. step calibration based on coplanar circle[J].Applied Sci- Chonging :Chongqing University,2009::1-108 ence and Technology,2010,37(1)):36-40. ZHAO Peng,NI Guoqiang.Simultaneous perimeter meas- 作者简介: urement for 3-D object with a binocular stereo vision meas- 尚倩,女,1987年生,硕士研究生, urement system[J].Optics and Lasers in Engineering, 主要研究方向为计算机视觉、数字图像 2010,48(4)):505-511. 处理、信号与信息处理 图肖南峰.智能机器人[]广州:华南理工大学出版社, 2008:10-98. 9]]蔡健荣,范军,李玉良.立体视觉系统标定及成熟果实定 位[].农机化研究,2007,11:3841. CAI Jianrong,FAN Jun,LI Yuliang.Binocular system cali- 阮秋琦,男,1944年生,教授,博士 bration and mature fruit location [J]].Agricultural Re- 生导师,北京交通大学信息科学研究所 search,2007,11::3841. 所长,IEEE高级会员.主要研究方向 10]周子啸,赵晓林,胡峰,等.基于仿真机器人的双目视觉 为图像处理、计算机视觉、多媒体信 定位[].电视技术,2010,8::106-109. 息处理、虚拟现实、计算机支持的协同 ZHOU Ziiao,ZHAO Xiaolin,HU Feng,et al.Binocular 工作.曾获国家教委科技进步二等奖、 stereo location on emulator robot J].TV Technology, 铁道部科技进步二等奖和三等奖等.发表学术论文150余篇 2010,8::106-109. ,出版著作3部,获国家专利1项. [1l]郭巍,张平,朱良,陈曦.基于AdaBoost..ECOC的合成孔 径雷达图像目标识别研究[刀.哈尔滨工程大学学报,, 2010,31(2)÷232-236.. GUO Wei,ZHANG Ping,ZHU Liang,CHEN Xi.Re-- 李小利,女,1986年生,博士研究 search on synthetic aperture radar image target recognition 生,主要研究方向为数字图像处理、计 based on AdaBoost.ECOC[J]'.Journal of Harbin Engi-- 算机视觉和模式识别. neering University,2010,31(2)2):232-236. 12]王科俊,魏娟.基于共面圆的双目立体视觉分步标定 法[]1.应用科技,2010,37(1)1):36-40. 欢迎订阅《控制工程》期刊 ★跟踪国际自动化最新动态★发布自动化领域最新研究成果★展示自动化领域最新产品 《控韩制工程》(双月 国际刊号:ISSN1671-7848国内刊号:CN21-1476/TP 邮发代号:8-216 国内定价:15元/期(全年90元) 《控制工程》是由国家教育部主管、东北大学主办的国家级学术性期刊,创刊于1994年.《控制工程》系系 北京大学中文核心期刊、中国科技核心期刊、中国科学引文数据库核心期刊(CSCD)人中国科技论文统计用 刊、中国科学文献数据用刊、《中国学术期肝刊综合评价数据库》来源期刊,俄罗斯《文摘杂志》(A))、美国《剑 桥科学文摘》(CSA))、英国《科学文摘》(SA,NSPEC))三大著名检索机构全文检索期刊. ·本刊是自动控制学科的学术期刊,主要刊登反映自动化技术及产品的研究开发及应用方面最新成果果 的研究报告,以及学术研讨和自动化高技术及其产品的介绍。 ·主要栏目:综述与评论、过程控制技术及应用、智能控制技术及应用、优化控制技术及应用、计算机控空 制系统及软件、机电一体化、电气自动化、检测装置及仪表、企业资源与管理系统、综合自动化系统、故障诊 断、典型自动化工程、模式识别及图像处理等。 地包址:沈阳东北大学310信箱 邮编:11004 电1话.024-23883498/024-83687509 传真.024-23883498 E-mail::kzgcbjb@mail.neu.edu.cn http://www.kzge.com.cn
·本刊是自动控制学科的学术期刊,主要刊登反映自动化技术及产品的研究开发及应用方面最新成果 的研究报告,以及学术研讨和自动化高技术及其产品的介绍. 国际刊号: SSN1671-7848 国内刊号: CN21-1476/TP 邮发代号: 8-216 国内定价: 15元/期(全年90元) 12] 王科俊,魏娟.基于共面圆的双目立体视觉分步标定 法[J] .应用科技,2010,37(1) :36-40. QU Zhong. Research on image segmentation,evaluation and image three-dimensional surface reconstruction[ D] . Chongqing: Chongqing University,2009: 1-108. [7] ZHAO Peng,NI Guoqiang. Simultaneous perimeter measurement for 3-D object with a binocular stereo vision measurement system[J]. Optics and Lasers in Engineering, 2010,48(4) : 505-511. [11]郭巍,张平,朱良,陈曦.基于AdaBoost.ECOC的合成孔 径雷达图像目标识别研究[J] .哈尔滨工程大学学报, 2010,31(2) :232-236. 欢迎订阅《控制工程》期刊 阮秋琦,男,1944年生,教授,博士 生导师,北京交通大学信息科学研究所 所长,IEEE高级会员.主要研究方向 铁道部科技进步二等奖和三等奖等.发表学术论文150余篇 为图像处理、计算机视觉、多媒体信 息处理、虚拟现实、计算机支持的协同 工作.曾获国家教委科技进步二等奖、 ,出版著作3部,获国家专利1项. 尚倩,女,1987年生,硕士研究生, 主要研究方向为计算机视觉、数字图像 处理、信号与信息处理. WANG Kejun,WEI Juan. Binocular stereo vision step by step calibration based on coplanar circle[J]. Applied Science and Technology,2010,37(1) :36-40. 地 址: 沈阳东北大学310信箱 邮 编: 11004 电 话:024-23883498/024-83687509 传 真: 024-23883498 E-mail: kzgcbjb@ mail.neu.edu.cn http: //www.kzge.com.cn GUO Wei,ZHANG Ping,ZHU Liang,CHEN Xi. Research on synthetic aperture radar image target recognition based on AdaBoost. ECOC[J] . Journal of Harbin Engineering University,2010,31(2) :232-236. 尚倩,等: 双目立体视觉的目标识别与定位 CAI Jianrong,FAN Jun,LI Yuliang. Binocular system calibration and mature fruit location [J] . Agricultural Research,2007,11: 3841. 9] 蔡健荣,范军,李玉良.立体视觉系统标定及成熟果实定 位[J] .农机化研究,2007,11: 3841. ★跟踪国际自动化最新动态★发布自动化领域最新研究成果★展示自动化领域最新产品 《控制工程》是由国家教育部主管、东北大学主办的国家级学术性期刊,创刊于1994年.《控制工程》系 北京大学中文核心期刊、中国科技核心期刊、中国科学引文数据库核心期刊(CSCD) 、中国科技论文统计用 刊、中国科学文献数据用刊、《中国学术期刊综合评价数据库》来源期刊,俄罗斯《文摘杂志》(AJ) 、美国《剑 桥科学文摘》(CSA) 、英国《科学文摘》(SA,INSPEC) 三大著名检索机构全文检索期刊. [8] 肖南峰.智能机器人[M] .广州: 华南理工大学出版社, 2008: 10-98. ·主要栏目: 综述与评论、过程控制技术及应用、智能控制技术及应用、优化控制技术及应用、计算机控 制系统及软件、机电一体化、电气自动化、检测装置及仪表、企业资源与管理系统、综合自动化系统、故障诊 断、典型自动化工程、模式识别及图像处理等。 311。 ZHOU Ziiao,ZHAO Xiaolin,HU Feng,et al. Binocular stereo location on emulator robot [ J]. TV Technology, 2010,8: 106-109. 作者简介: 第4期 10] 周子啸,赵晓林,胡峰,等.基于仿真机器人的双目视觉 定位[J] .电视技术,2010,8: 106-109. 李小利,女,1986年生,博士研究 生,主要研究方向为数字图像处理、计 算机视觉和模式识别. 《控制工程》(双月刊)