第8卷第1期 智能系统学报 Vol.8 No.1 2013年2月 CAAI Transactions on Intelligent Systems Feh.2013 D0I:10.3969/j.issn.16734785.201204022 网络出版地址:http://ww.cnki.net/kems/detail/23.1538.TP.20130125.1508.008.html 基于协方差交集的多机器人协作目标跟踪算法 伍明,李琳琳,李承剑 (第二炮兵工程大学指挥信息工程系,陕西西安710025) 摘要:为了解决未知环境下多机器人协作目标跟踪问题,设计了一种基于协方差交集数据融合的分布式解决算 法.单台机器人运用全协方差扩展式卡尔曼滤波器完成未知环境下机器人状态和目标状态的同步估计,当单台机器 人发现同伴并利用观测值对同伴机器人状态进行本地估计后,将结果连同目标状态一起发往同伴机器人,同伴机器 人进行数据验证后,采用基于协方差交集的数据融合算法完成本地相关状态的更新,由于并不需要知道相关估计对 象之间的协方差阵,因此算法具有分布式特点.仿真实验证明了算法能够有效提高机器人对于自身状态、环境特征 状态以及目标状态的估计准确性. 关键词:机器人;多机器人协作;目标跟踪算法;协方差交集 中图分类号:TP242.6文献标志码:A文章编号:16734785(2013)01006608 An algorithm of multi-robot cooperative object tracking based on covariance intersection WU Ming,LI Linlin,LI Chengjian Command Information Engineering Department,The Second Artillery Engineering College,Xi'an 710025,China) Abstract:In order to solve the problem of multi-robot cooperative object tracking in unknown environments,a distributed algorithm based on covariance intersection data fusion was proposed in this paper.To the single robot,states of robot and object in an unknown environment are simultaneously estimated using a full covariance extended Kalman filter.As the robot finds a partner,it will estimate the state of the partner according to observation and then send the state collectively with object state to the partner.Once the partner verifies the incoming information,the relevant local state is updated u- sing data fusion algorithm based on a covariance intersection.Since the covariance between different states is not nee- ded,and therefore the algorithm was distributed.The improvement in estimation precision of the robot state,environ- ment characteristic state and object state using this approach was verified through the simulation results. Keywords:robots;multi-robot cooperation;object tracking algorithm;covariance intersection 多机器人协作状态估计可以分为对机器人自身 能够有效提高定位精度和地图创建效率,对于该 的状态估计问题和对目标的状态估计问题,前者被 问题主要的解决方法包括基于扩展式卡尔曼滤波和 称为多机器人协作定位问题2,后者被称为多机 GPS信息的方法51、基于粒子滤波的方法[6以及基 器人协作目标跟踪问题34].目前对于多机器人协 于集员(set membership)的方法8]等,而在具体应用 作定位问题的研究重点集中在未知环境下的协作定 中又可分为集中式方法[9和分布式方法0].学界对 位,也就是协作SLAM(simultaneous localization and 于多机器人协作目标跟踪问题的研究主要集中在设 mapping)问题s6,该问题假设机器人团队在进行定 计相关队形控制算法「]及数据融合算法「2],使机 位过程中并不已知环境信息,因此需要对环境状态 器人团队组成的传感器阵列能够具有更大的侦查范 和机器人状态进行同步估计.与单机器人相比,通过 围和更高的目标状态估计精度.在一些实际任务中, 机器人之间的协调配合以及信息共享,协作SLAM 例如未知环境下机器人协作围捕任务[3],需要机器 人在未知环境下对目标进行状态估计,该问题是 收稿日期:201204-25.网络出版日期:201301-25. 通信作者:伍明.E-mail:hyacinth531@163.com SLAM问题和目标跟踪问题(object tracking,OT)的
第1期 伍明,等:基于协方差交集的多机器人协作目标跟踪算法 ·67 耦合问题.Wag等41首先对该问题进行了研究,并 环境特征Lm,箭头虚线代表此时R:的3种观测值 提出一种基于扫描点匹配的解决方法,由于该方法 采用的是ICP(iterative closest point)匹配算法,因此 无法描述机器人和目标的不确定性和相关性,并且 存在累积误差5].伍明等[6]提出了一种基于卡尔 2 曼滤波的算法,该算法将机器人状态、目标状态以及 环境特征状态作为整体来处理,增加了不同对象状 态之间耦合关系的估计,进而提高了算法的准确性. 以上方法均是针对单个机器人,并未发挥机器人团 队的协作优势.介于此,本文设计了一种基于协方差 交集数据融合的未知环境下多机器人协作目标跟踪 分布式算法,单机器人利用文献[16]提出的卡尔曼 图1系统观测对象示意 滤波方法进行SLAMOT(simultaneous localization, Fig.1 The diagram of object observations 设k时刻R:的系统状态向量为X(R)= mapping,and object tracking),多机器人利用协方差 交集方法进行不同对象的状态融合.协方差交集方 [(x)T()T(L)r]T,其中, 法的采用,使算法并不需要知道相关估计对象之间 L=[(X)T(X)T…(x)T]T 的协方差阵,因此算法具有分布式特点 为R:目前发现的环境特征状态估计分量.X:= [(X)TX]T为R对自身状态的估计分量,其中 1多机器人协作同时定位,地图构建 X=[xy]严代表位置状态估计分量,X”=代 与目标跟踪问题描述 表角度估计分量.此处将位置状态和角度状态分开表 假设存在m个固定环境特征{lm,L2,…,lmm}, 示的原因在于:由于观测值只能提供位置信息,因此 其中第i个标志柱的位置状态记为Xm.n台机器人 融合过程只针对状态位置分量进行.X,?为R对目 组成的机器人团队为{R1,R2,…,Rn},其中第i个机 标的状态估计分量.X,(R)对应的协方差阵为P 器人在k时刻的位姿状态为X.环境中存在需要追 另外,设R对R的估计为 踪的目标T,其在k时刻的状态记为X, X周=[(X)TX]T, 其中X罗为R对R的位置状态估计,X为R对 假设R:在时刻获得n个环境观测值,将该 观测值集合记为:,则包含4种可能的观测对 R的角度状态估计.Xs对应的协方差阵为P. 象,即袋=URUUZ,分别为: 未知环境下多机器人协作目标跟踪过程为:首 先单个机器人R,在未知环境中进行同时定位、地图 1)对于环境特征的观测值集合:={z, 构建与目标跟踪,若R:和R建立通讯并且R得到 z2,…,z{.其中m为k时刻机器人R:观测到 对R的观测值时,R:将通过计算得到其对R状态 的环境特征个数,:=[d:y]T为环境特征相 的估计X,R并将该估计值连同对目标的估计X,T 对于机器人的距离和角度观测值. 一同传输给R,R在得到R:发送来的信息后运用 2)对于目标的观测值:zr=[dy]T. 数据融合方法对本地信息进行更新,以提高本地信 3)对于同伴机器人R的观测值: 息估计的准确性.若R:和R建立通讯但R:没有观 z鸟=[d号y8]T 测到R,R,只把对目标的估计X,T传输给R,那么 4)伪规测值集合: R将只对本地目标状态估计进行融合: z={z听,z5,…,z. 不同于文献[2]方法,本文设计的算法是分布式 式中:≥0为k时刻机器人R,获得的伪观测值数 的,因此能满足鲁棒性和时效性要求.需要说明的是以 量,并且有n=m++2. 下只考虑2个机器人的情况,对于更多机器人的情况 假设z如能够区别于,z,z,并且 可以结合利用文献[18]的数据通讯方法来解决另外, z不存在伪观测值(在实际应用中可以采用特定 算法只对目标和机器人状态进行融合并没有将环境特 的环境特征和性能较好的环境特征识别算法来 征进行融合,其原因有二,首先,环境特征融合会带来 达到该要求),系统观测对象如图1所示.该图是以 通讯和计算负担从而影响系统实时性,其次,从文献 R:为主体的系统观测过程示意图,其中空花形机器 [16]研究可知,SLAMOT估计准确性的关键在于对机 人代表同伴R,实花形机器人代表目标T,圆点代表 器人状态的正确估计,因此一旦提高机器人状态估计
·68 智能系统学报 第8卷 的准确性,那么将会连带提高环境特征的估计准确性, z外还存在其他观测值,那么系统认为这些观测 后续实验证明了该观点的正确性 值均为,(即对同伴机器人R2的观测值),R1将 2基于协方差交集的多机器人协作 利用,对R2的状态进行估计并把估计结果 SLAMOT算法 ,品(由于此时可能是伪观测值,因此可能获 得多个X,品值)连同目标状态估计X,一同通讯 未知环境下多机器人协作定位与目标跟踪系统 给R2·R2接收到该信息后在传输数据检验环节对 总体框架如图2所示.图中带箭头实线代表数据流 和多个X品进行检验,在相关信息通过检验 方向,带箭头虚线代表R、R2间的数据通讯.下面 后,R2进入数据融合阶段对X,R和X(X为R2 以R,为例说明算法处理过程,设√源自对机器人 对自身状态估计)以及Xr和X(Xr为R2对 和目标的观测.当R,得到观测数据z时首先通过 目标状态估计)进行基于CI(covariance intersection) 观测数据检验环节来检验并得到目标观测值,”, 的数据融合,最后R2还需对自身系统协方差矩阵 之后R1运用基于EKF的机器人同时定位、地图构 P进行更新以完成此次循环.基于EKF的机器人 建和目标跟踪算法对自身和目标的状态进行估计. 同时定位、地图构建与目标跟踪方法参见文献[16]. 若观测值除了目标观测值z”和环境观测值 N 观测值 观测数据 R 专输数据 协方差矩 检验 EKF_SLAM OT 是否通过 数据融合 阵更新 R对R状态进 行本地估计 R,本地 R,对R状态进 R本地 行本地估计 观测值 观测数据 R. 输数据 检验 EKF SLAM OT 觉是通定 数据融合 协方差矩 阵更新 N 图2基于协方差交集的多机器人协作目标跟踪系统总体流程 Fig.2 The flow chart of multi-robot cooperative object tracking system based on covariance intersection 2.1机器人间状态估计 FR=dinversion 当机器人观测到同伴时可以利用观测值对同伴 X 的状态进行估计.假设已知时刻R,对R2的观测 r10 -·sin(y品+的)1 值为B=[政品y]T,以及R,的状态X= 01 政肠cos(y居+) [xy]T和协方差阵P,R,的观测误差阵 pz=ainversion= 为R°,可得R,对于R2的位置估计X,为 0z6 X球w=[效品]F=inversion(是品,球)= Tcos(y品+的)-d品·sin(y2+0) os(W)-sin()1.「d·os(2八+} sin(yB+)d·sin(y品+0) sin(e) cos(的)J【d片·in()J 通过机器人之间的相互观测可以得到以其中一 (1) 个机器人为主体对其他机器人状态的估计,但由于 由于观测模型的限制,R1对R2的状态估计只 采用的是深度角度观测值所以只能反映其他机器人 反映位置信息,因此状态变量上角标记为R2少.对 的位置信息而它们的角度信息无法得到.另外,机器 应的状态协方差阵为 人R,在k时刻能够判断所有观测值z中哪个观测 Pw=F·PR·(FR)T+F2·R°·(F2)T.(2) 值属于目标(即判断出z),但R,不能判断出哪 式中:F、F2分别为式(1)对X和,:的雅可比 个是对R2的观测值z;因此R,将对所有剩余观 阵,即 测值通过式(1)、(2)得到一系列位置状态估计值
第1期 伍明,等:基于协方差交集的多机器人协作目标跟踪算法 69. 记为(X:,P),i=1,2,…,+1.这些估计 (1-o)·(P)1·X).(4) 值将全部发送给队友机器人R2,R2在接收到这些估 式中:变量上标Ry代表该变量是对R2位置状态 计后利用λ检验得出z.运用以上方法的优点 的融合结果,ω取使‖P‖2最小的o值 在于当机器人团队成员个数大于2时,该方法能保 在完成了以上2步后,R2的系统状态向量更新 持分布式特点,因为每个机器人只需发送所有的估 情况如式(5)~(7)所示. 计信息,而信息的检验由其他机器人完成,另外,一 X(风)=[XL= 般来说,在k时刻产生的伪观测数量并不多,因此该过 融合前 程的计算量和数据传输量能够满足系统实时性要求. [”L],目标信息通过检验; (5) 2.2数据融合过程 [x攻TL]',机器人信息通过检验;(6) 当R传输来的信息通过检验之后,R采用协方 [xL」,所有信息通过检验 (7) 差交集数据融合方法(C)[9对本地信息进行融合,采 酷合后 类似地,R2系统状态协方差阵的对角子阵更新 用CI方法的优点是无需知道融合各分量间的协方差, 情况如式(8)~(10)所示. 从而保证算法的分布式特点.具体存在对2个对象的 p=diag(PyppP)= 融合,即对自身状态估计的融合和对目标状态的融合. 融各前 1)对目标状态信息的融合, diag(PP), 目标信息 (8) 首先利用IC数据融合方法得到融合后的目标 通过检验; 状态估计: diag(ppP), 机器人信息 (9) pr=()·(p)1+ 通过检验; (1-wr)·(pP)1)1, diag(P,°,P,卫), 所有信息 (10) x产=pm.(ω.(P收T)1·xr+ 融合后 通过检验 (1-w)·(Pg)·X). (3) 从式(5)~(10)可见,待融合的对象信息只要 式中:变量上标代表该变量是对目标的融合结 通过数据检验环节,那么就将和本地信息进行融合 果,wT取使‖P"2最小的w值 并生成新的融合后本地信息, 2)对自身状态信息的融合. 由于系统状态向量由机器人自身状态、目标状态 以及环境特征状态组成,因此相应系统协方差阵的对 R2对于自身位置状态的融合信息来自两方面, 一方面是R2对自身的估计,另一方面是R,通过观 角子阵是对这3个对象自相关程度的描述,以下考虑 测得到的对R2位置状态的估计,因此可得R2位置 单一对象信息融合后对与其他对象互相关阵的影响. 状态信息的融合结果为: 2.3互相关矩阵更新 P=(·(P)+(1-w)·(P)), 首先,写出R2的系统协方差阵以及各部分代表 X对=P·(ω·(P)·X+ 的意义: R2的x,y分量 2的0分量 T的状态 特征。状态 R2的x,y分量rC(X9,X)C(X9,X) C() C(XR2,L) C(X°,X)C(X,X) C(x°,X) P R2的0分量 C(X,L) T的状态 C(X)C()C(X C() 特征1n状态 C(LX) C(L&,X) C(L,X) C(L,L) 式中:C(A,B)代表状态向量A和B的互相关矩阵. 以及T与环境特征1m互相关阵的更新。 以下根据3种不同情况进行互相关阵的融合更 首先看融合后的目标状态与机器人R2位置状 新,分别为单独目标对象信息融合、单独机器人对象 态互相关阵的更新,由式(3)和协方差性质得 信息融合以及目标、机器人对象信息同时融合: C()=(C()) 1)单独目标对象信息融合条件下互相关阵的 C(Pm.(ω.(P)1.X+ 更新 (1-o)·(P)1·Xr),X)= 若待融合信息只有目标对象信息通过数据检验 o.Pr.(P)-1.C(x,X)+ 时,R2利用式(5)、(8)对目标T的状态向量和自相 (1-ωr)·Pm·(P)1·C(X2,X). 关阵进行更新,并利用以下方法完成T与机器人R2 (11)
·70 智能系统学报 第8卷 式中:C(X,x2)为0,则式(11)变为 了数据检验,那么R2将利用式(7)和(10)对自身位 C(XKX)=(C(XK,X))= 置状态和其协方差阵,以及目标状态和其协方差阵 .Pw.(P)1.C(K,X) 进行更新.此时目标状态与机器人R2角度状态以及 类似地,融合后的目标状态与机器人R2角度状 环境特征1m互相关阵同式(12)和(13).R2位置状 态以及与环境特征m互相关阵的更新分别为: 态与角度状态以及环境特征1m互相关阵同式(14) C(Xr,x)=(C(x”,x,))T= 和(15).由式(3)和(4)以及协方差阵性质可知,此 r·Pt·(Pr)1·C(X,X),(12) 时R2位置状态向量与目标状态向量协方差阵为 C(,)=(C(L))T= C(X)=(C(XX))T= ω·Pkm·(Pr)1.C(xr,L).(13) C(P·(o·(P2)-·X+ 2)单独机器人对象信息融合条件下互相关阵 (1-w)·(P)1·XR), 的更新. P坠r.(wr.(P)1.xr+ 若只有待融合的机器人R2状态信息通过了数 (1-or)·(P)1·X)= 据检验,那么R2将利用式(6)和(9)对自身位置状 w·wr.Po·(P)l· 态和自相关阵进行更新.由式(4)和协方差阵性质 C(xw,X)·(Pr)1.pm+ 可知融合后R2位置状态向量与角度状态的互相关 (1-w)·(1-wr)·P5·(P)-1. 阵,R2位置状态向量与目标状态向量互相关阵以及 C(xy,X7)·(PT)·P R2位置状态向量与环境特征状态向量互相关阵更 由于估计主体不同因此在上式的推导中互相关 新分别为: 阵C(X,X)、C(X2,X)均为0. C()=(c())T= ω·P·(P)1·C(X,X),(14) 3实验结果及分析 C(,X)=(C(K))= 通过仿真实验验证协作数据融合算法的有效性 o·P·(P)1·C(X,XT) 并分析其性点,实验在Matlab7.5平台下进行.机 C(,L)=(C(L ))T= 器人团队包含2台机器人,运动方式符合非完整性 ω·P·(P)-1·C(X,L).(15) 约束轮式机器人模型,并采用文献[20]设计的控制 3)目标、机器人对象信息同时融合条件下互相 算法对机器人团队进行控制.目标遵循定加速度模 关阵的更新. 型(CAM).在长1000m,宽1000m的环境中均匀 若待融合的机器人R2和目标对象信息均通过 分布着1600个环境特征. 350 R发现 -★--能合方法{R) 3001 R,发观的标志 的标志 ★ 非融合方法(R) 250 ---融合方法(R,) 200 ……非融合方法(R) 150 R真实轨迹 R,真实轨迹 100 目标真实轨迹 50 标志 ,起点 0 -50 1起点 R起点 -100 -1% -150-100 -50 0 50 100 150200250300 x/m 图3总体仿真结果 Fig.3 The results of simulation 算法总体结果如图3所示.图中浅色小星号代表环境特征的真实分布,灰色大星号和灰色十字分
第1期 伍明,等:基于协方差交集的多机器人协作目标跟踪算法 71. 别代表R,采用非融合和融合估计方法得到的环境 219升 特征位置估计.黑色大星号和黑色十字分别代表R2 融合方法的 218 采用非融合和融合估计方法得到的环境特征位置估 R对目标估 217 计轨迹 非融合方法 计.中间黑色实线代表目标的真实轨迹.目标真实轨 迹附近的黑色、灰色长虚线分别代表采用非融合方 216 计轨迹 法得到的R、R2对目标轨迹估计.目标真实轨迹附 复2 近的黑色、灰色短虚线分别代表采用融合方法得到 214 R实际 迹 的R1、R2对目标轨迹估计.右边黑色实线代表机器 213 人R,的真实运动轨迹,R,真实运动轨迹附近的黑 212 色长、短虚线分别代表采用非融合、融合方法得到的 对机器人R,的轨迹估计.左边黑色实线代表机器人 21m 13 14 15 16171819 x/m R2的真实运动轨迹,R2真实运动轨迹附近的黑色 (c)机器人R2轨迹 长、短虚线分别代表采用非融合、融合方法得到的对 机器人R2的轨迹估计. 288.5 为了清晰起见,图4为图3的局部放大图.从该 288.0 图可见,对于目标、机器人R、R2以及标志柱的位置 287.5 估计来说,采用融合方法得到的结果均要好于不采 287.0 用融合方法的结果,即融合结果更接近真值并且不 确定范围更小. 286.5 非融合方法 合方法 志柱 336r 286.0 标志柱 位置估计 柱位置什计 335 融合方适 真实位置 计轨迹 2855 334 -8-7 6542二1 x/m 333 (d)标志柱位置 E332 图4不同对像位置估计的局部放大 331 目标实 非融合方法 际轨迹 Fig.4 Magnified image of different objects tracking ‘的R对日标 330 ,‘估计轨迹。 5.0 66 6> 6869 x/m 70717273 4.0 非逊合方法 (a)目标轨迹 张2.0 224 融合方法 222 融合方法的 R,对目标估 人n 10 220 计轨迹 0.8 1.2 1.6 2.0 t/s 218 (a)机器人R对目标估计误差对比 非融合方法 3.0 R实际 214 2.5 轨迹 212 E2.0叶 非融合方法 1.5 210 1.0 融合方法 0 52 54 m58 56 606264 0.5 (b)机器人R轨迹 0.4 08 12 1.6 6)机器人R,对日标估计误差对比
·72 智能系统学报 第8卷 4.0- 参考文献: 3.0 [1]FOX D,BURGARD W,KRUPPA H,et al.A probabilistic E approach to collaborative multi-robot localization[J].Au- 2 tonomous Robots,2000,8(3):325-344. 非融合方法 [2]FENWICK J W,NEWMAN P M,LEONARD JJ.Coopera- 1.0 融合方法 tive concurrent mapping and localization [C]//Proceedings of the IEEE International Conference on Robotics and Auto- 10 0.4 0.8 12 1.6 tis 20 mation.Piscataway,USA:IEEE,2002:1810-1817. (c)机器人R对白身估计误差对比 [3 ZHANG L,SHEN P Y.A new method for moving object tracking with multi-robot[J].Journal of Convergence Infor- mation Technology,2001,6(8):35-43. 2.5 [4]MOTTAGHI R,VAUGHAN R.An integrated particle filter 2.0 and potential field method applied to cooperative multi-robot target tracking[J].Autonomous Robots,2007,23(1):19- 35. 1.0 非融合方法 5]MADHAVAN R,FREGENCE K,PARKER L E.Distribu- ted cooperative outdoor multi-robot localization and mapping 0.5 融合方法 [J].Autonomous Robots,2004,17(1)23-39. 0.408 12 16 ts 2010 [6]REKLEITIS I,DUDEK G,MILIOS E.Probabilistic cooper- ative localization and mapping in practice[C]//Proceedings (d机器人R,对自身估计误差对比 of the IEEE International Conference in Robotics and Auto- mation.Taipei,China,2003:1907-1912. 图5融合与非融合方法估计误差曲线对比 [7]罗荣华,洪炳榕.移动机器人同时定位与地图创建研究 Fig.5 Estimation performance comparison of fused 进展[J].机器人,2004,26(2):182-186. and normal method LUO Ronghua,HONG Bingrong.The progress of simultane- ous localization and mapping for mobile robot[].Robot, 图5分别显示了机器人R,、R2对于目标和自身 2004,26(2):182-186. 状态估计时,采用本文融合方法和文献[16]非融合 [8]Di MARCO M,GARULLI A,GIANNITRAPANI A,et al. 方法的误差曲线对比.从图5可见,机器人无论是对 Simultaneous localization and map building for a team of co- 目标的状态估计还是对自身的状态估计,采用融合 operating robot:a set membership approach [J].IEEE 方法的准确性均高于非融合方法.另外,由文献 Transactions on Robotics and Automation,2003,19(2): 238-248. [16]的结论可知,由于目标始终朝同一方向运动导 [9]WILLIAMS S B,DISSANAYAKE G.DURRANT-WHYTE 致机器人的运动轨迹缺少回路,使得估计误差累积 F.Towards multi-vehicle simultaneous localization and map 速度加快,从图5的实验结果可见,采用融合方法后 ping[C]//Proceedings of the IEEE Intemational Conference 能够有效控制误差的增长速度,提高系统整体估计 on Robotics and Automation.Washington,DC,USA, 准确性。 2002:2743-2748. [10]NETTLETON E,GIBBENS P,DURRANT-WHYTE H. 4结束语 Closed form solutions to the multiple platform simultaneous 本文设计了基于协方差交集的分布式多机器人 localization and map building (SLAM)problem [C]// 协作SLAMOT算法,协方差交集数据融合方法的采 Proceedings of Interational Symposium on Sensor Fusion: 用在提高相关对象状态估计准确性的同时,避免了 Architecture,Algorithms and Applications.Orlando, USA,2000:428-437. 对象状态间的互相关性估计问题,减少了系统的数 [11]VAN DER WALLE D,FIDAN B,SUTTON A,et al. 据传输和计算量,使算法具备了分布式的特点.仿真 Non-hierarchical UAV formation control for surveillance 实验通过与非融合算法进行对比,结果证明了融合 tasks[C]//American Control Conference.Seattle,USA, 算法在系统状态估计准确性上的优势, 2008:777-782
第1期 伍明,等:基于协方差交集的多机器人协作目标跟踪算法 ·73 [12]刘国成.一种基于多传感器数据融合的目标跟踪算法 unknown correlation-covariance intersection as a special [J].系统仿真学报,2009,21(19):61836189. case[C]//Proceedings of International Conference on In- LIU Guocheng.Algorithm for multi-sensor data fusion tar formation Fusion.Piscataway,USA,2002:905-912. get tracking[J].Journal of System Simulation,2009,21 [20]WU Ming,HUANG Feifei,WANG Long.A distributed (19):61836189 multi-robot cooperative hunting algorithm based on limit- [13]VIDALY R,SHAKERNIA O,KIM H J,et al.Probabilis cycle[C]//Proceedings of the Interational Asia Confer- tic pursuit-evasion games theory,implementation,and ex- ence on Informatics in Control,Automation and Robotics. perimental evaluation[J].IEEE Transactions on Robotics Bangkok,Thailand,2009:156-160. and Automation,2002,18(5):662-669. 作者简介: [14]WANG CC,THORPE C.Simultaneous localization and 伍明,男,1981年生,讲师,博士,主 mapping with detection and tracking of moving objects[J]. 要研究方向为自主机器人控制、多机器 International Joural of Robotics Research,2007,26(9): 人协作、机器人环境构建.发表学术论 889916. 文10余篇,其中被I检索8篇. [15]BORRMANN D,ELSEBERG J,LINGEMANN K,et al. Globally consistent 3D mapping with scan matching[].Ro- botics and Autonomous Systems,2008,56(2):130-142. [16]伍明,孙继银.基于扩展式卡尔曼滤波的机器人未知环境 李琳琳,女,1974年生,副教授,博 下动态目标跟踪[J].机器人,2010,32(3):334-343.WU 士.主要研究方向为信息栅格技术、多 Ming,SUN Jiyin.Extended Kalman filter based moving ob- 传感器网络、物联网.主持国家高技术 ject tracking by mobile robot in unknown environment [J]. 研究项目1项,发表学术论文20余篇, Robot,2010,32(3):334-343. 其中被EI检索12篇. [17]ARRAS K O.Feature-based robot navigation in known and unknown environments[D].Lausanne,Switzerland:Swiss Federal Institute of Technology Lausanne,2003. 李承剑,1983年生,讲师,主要研究 [18]PEREIRA G A S,KUMAR R V,CAMPOS M F M.Local- 方向为指挥自动化系统和计算机应用 ization and tracking in robot networks EB/OL].[2012 技术.发表学术论文6篇,其中被I检 04-20].http://repository.upenn.edu/cgi/viewcontent. 索2篇. cgi?article =1038&context meam_papers. [19]CHEN L J,ARAMBEL P O,MEHRA R K.Fusion under