正在加载图片...
·754· 智能系统学报 第14卷 为了提高多尺度检测的速度,利用相邻尺度 由图2可以得到B=a-y,y=arctan 从而 特征估计的方法构造快速特征金字塔。定义 纵向距离可以表示为 RL,s)为原始图像I在尺度s处的特征采样,2为 h h 通道变换,文献[10]通过对INRIA行人数据集图 Y=- (3) tanp tan(a-arctan) 片在不同尺度下提取的通道特征进行统计分析, 发现尺度s的通道特征C:与原始图像通道特征 根据比例关系 00_0Q P0=Pe,由0g= C=2()之间满足以下关系: V002+0Q=√FP+y2,0Q为纵向距离,PQ=x, Cs≈R(C,so (1) 可以得到横向距离: 式中如为通道估计系数。那么只要间隔一定尺 度由原始图像计算通道特征C,=2(R(L,s),s∈ POY=- X= 00' v2+y2 sin(a-arctan) 1小中间尺度的特征C,就可以根据其最 (4) (u-uo)h 近尺度的已知特征进行较为精确的估算: Vf2+(v-vo)2 sin(a-arctan) C=kCse/el,g (2) 摄像机距地面高度h和俯仰角α通过直接测 这样可以大幅减少常规方法在每个尺度都计算图 量得到,本文的实验环境下h=1063mm,a=9°, 像特征所需的计算开销。 相机焦距f和像素坐标系原点坐标(,o)为相机 对于输入的640像素×480像素大小的待检测 内部参数,通过相机标定可以得到f=624.8583, 道路图像,以间隔8个尺度的通道图像精确计算, (,%)=(333.0919,222.1107)。根据单目视觉定位 其余尺度的通道图像近似估算的方式构造特征金 原理,选取检测到的行人边框下边界的中点为 字塔,在不同尺度的特征图上用64×32的滑动窗 参考点,可以从单帧静态图像中估计出行人与车 口遍历,用训练好的分类器对每个候选区域进行 辆间的纵向距离(Y_distance)与横向距离(Xdis 判断,输出包含行人的窗口边框坐标及相应的分 tance)。道路图像中的行人检测与距离估计结果 类得分,最后用非极大值抑制(non-maximum sup 如图3所示。通道特征检测器选取对行人具有良 pression,.NMS)消除重叠的窗口。 单目视觉距离估计模型如图2所示,Xw、Yw、Zw 好表征效果的梯度与色彩特征,结合邻近特征估 为世界坐标系,相机光心在O点,焦距为f。相机 计的方法,兼顾了检测速度与精度。上述行人位 光轴c与成像平面交于点0,对应的像素坐标系 置估计方法在CPU下就可以达到14fs的处理 原点坐标为(o,o)。世界坐标系中的点Q(O,)在 速度,可以满足有效预警中对于目标实时定位的 图像坐标系中的投影点为Q(O,y,对应的像素坐 要求。 标为(,v);点P(XY)在图像坐标系中的投影点为 P(x,y),对应的像素坐标为(u,)。相机距地面的 高度为h,光轴与水平方向的夹角为a,即相机的 俯仰角。点Q与光心的连线与水平方向的夹角 为B,与光轴的夹角为y。 0 图3行人检测与距离估计结果 Fig.3 Pedestrian detection and distance estimation 2驾驶员头部姿态估计 0(0,) 为了计算头部姿态,首先需要建立面部形状 P(X) 模型,得到精确的面部特征点坐标。再根据面部 图2单目视觉距离估计模型 几何模型,利用特征点的几何位置和几何约束关 Fig.2 Monocular vision distance estimation model 系可以快速估算出头部姿态的方向参数。R(I,s) Ω Cs C = Ω(I) 为了提高多尺度检测的速度,利用相邻尺度 特征估计的方法构造快速特征金字塔。定义 为原始图像 I 在尺度 s 处的特征采样, 为 通道变换,文献 [10] 通过对 INRIA 行人数据集图 片在不同尺度下提取的通道特征进行统计分析, 发现尺度 s 的通道特征 与原始图像通道特征 之间满足以下关系: Cs ≈ R(C,s)·s −λΩ (1) λΩ Cs = Ω(R(I,s)), s ∈ {1, 1 2 , 1 4 ,··· } Cs 式中 为通道估计系数。那么只要间隔一定尺 度由原始图像计算通道特征 ,中间尺度的特征 就可以根据其最 近尺度的已知特征进行较为精确的估算: Cs ′ = R(Cs ,s/s ′ )(s/s ′ ) −λΩ , s ′ ∈ {1, 1 2 , 1 4 ,··· } (2) 这样可以大幅减少常规方法在每个尺度都计算图 像特征所需的计算开销。 对于输入的 640 像素×480 像素大小的待检测 道路图像,以间隔 8 个尺度的通道图像精确计算, 其余尺度的通道图像近似估算的方式构造特征金 字塔,在不同尺度的特征图上用 64×32 的滑动窗 口遍历,用训练好的分类器对每个候选区域进行 判断,输出包含行人的窗口边框坐标及相应的分 类得分,最后用非极大值抑制 (non-maximum sup￾pression, NMS) 消除重叠的窗口。 XW、YW、ZW O f c O ′ (u0, v0) Q(O,Y) Q ′ (O, y) (u ′ , v) P(X,Y) P ′ (x, y) (u, v) h α Q β γ 单目视觉距离估计模型如图2所示, 为世界坐标系,相机光心在 点,焦距为 。相机 光轴 与成像平面交于点 ,对应的像素坐标系 原点坐标为 。世界坐标系中的点 在 图像坐标系中的投影点为 ,对应的像素坐 标为 ;点 在图像坐标系中的投影点为 ,对应的像素坐标为 。相机距地面的 高度为 ,光轴与水平方向的夹角为 ,即相机的 俯仰角。点 与光心的连线与水平方向的夹角 为 ,与光轴的夹角为 。 O O' Q (O, Y) P (X, Y) Q' P' h u v x y XW ZW YW c f α γ β 图 2 单目视觉距离估计模型 Fig. 2 Monocular vision distance estimation model β = α−γ γ = arctan y f 由图 2 可以得到 , 。从而 纵向距离可以表示为 Y = h tanβ = h tan(α−arctan y f ) (3) OQ PQ = OQ′ P′Q′ OQ′ = √ OO′2 +O′Q′2 = √ f 2 +y 2 OQ P ′Q ′ = x 根据比例关系 , 由 , 为纵向距离, , 可以得到横向距离: X = P ′Q ′ OQ′ Y = x √ f 2 +y 2 h sin(α−arctan y f ) = (u−u0)h √ f 2 +(v−v0) 2 sin(α−arctan y f ) (4) h α h = 1 063 α = 9 f (u0, v0) f = 624.858 3 (u0, v0) = (333.091 9,222.110 7) 摄像机距地面高度 和俯仰角 通过直接测 量得到,本文的实验环境下 mm, °。 相机焦距 和像素坐标系原点坐标 为相机 内部参数,通过相机标定可以得到 , 。根据单目视觉定位 原理[14] ,选取检测到的行人边框下边界的中点为 参考点,可以从单帧静态图像中估计出行人与车 辆间的纵向距离 (Y_distance) 与横向距离 (X_dis￾tance)。道路图像中的行人检测与距离估计结果 如图 3 所示。通道特征检测器选取对行人具有良 好表征效果的梯度与色彩特征,结合邻近特征估 计的方法,兼顾了检测速度与精度。上述行人位 置估计方法在 CPU 下就可以达到 14 f/s 的处理 速度,可以满足有效预警中对于目标实时定位的 要求。 Y_distanc=8.49 me X_distanc=2.85 me 图 3 行人检测与距离估计结果 Fig. 3 Pedestrian detection and distance estimation 2 驾驶员头部姿态估计 为了计算头部姿态,首先需要建立面部形状 模型,得到精确的面部特征点坐标。再根据面部 几何模型,利用特征点的几何位置和几何约束关 系可以快速估算出头部姿态的方向参数。 ·754· 智 能 系 统 学 报 第 14 卷
<<向上翻页向下翻页>>
©2008-现在 cucdc.com 高等教育资讯网 版权所有