Page 142 - 2024年第55卷第11期
P. 142
参数,故至少需要 4个不共线的特征点对才能求解 H。为提高所估计单应性矩阵 H的准确性,本研究
采用最小二乘搭配最小中值估计法,具体过程如下:
1)首先定义标定出的单应性矩阵 H相对于每个目标点的标定误差为:
2
( h x+ h y+ h 13 ) ( h x+ h y+ h 23 ) 2
12 ri
11 ri
21 ri
22 ri
e = u- h x+ h y+ h 33 i h x+ h y+ h 33 (7)
+ v -
i
i
32 ri
32 ri
31 ri
31 ri
2)在包含 N个特征点对的集合中随机抽取 4对特征点组成计算集。
3)对计算集使用最小二乘法计算得到一个单应性矩阵H。
j
4)对H求出 N个特征点对的标定误差e,并求出e的中值e 。
j i i medi
5)重复上述过程,直至找到使e 最小的H作为最终的单应性矩阵。
medi j
在空间标定之后即可将毫米波雷达扫描点投影至像素坐标系中,然后根据投影点与相机目标检测
框的相对位置对两传感器的检测结果进行匹配。假设某一相机目标检测框 4个角点的像素坐标分别为
(u,v)、(u,v)、(u,v)、(u,v),某一雷达扫描点投影至像素坐标系中的坐标为(u,v),
r
r
2
2
1
2
1
2
1
1
若u<u<u且v<v<v,则认为两传感器感知的是同一障碍物,则对该障碍物进行毫米波雷达和相机感
1 r 2 1 r 2
知信息的融合,同时输出类别、距离和速度信息。若目标检测框内未匹配到雷达点或雷达投影点周围
未匹配到目标检测框,则认为两传感器检测到的为不同障碍物,不进行融合处理,单独输出各自的检
测结果。
在时间联合标定方面,本研究采用的相机型号为 HIKVISION - E12a,其采样帧率为 30帧,即采样周
期为 33.3ms;采用的毫米波雷达的型号为 ARS408 - 21XX,其采样帧率为 17帧,即采样周期为 58.5ms,
若连续采样则无法实现相同时刻数据的对齐。本研究对相机和毫米波雷达均开始工作后的每 0.25s的
最后一帧数据进行采样,对采样到的数据进行融合处理,实现在时间上的同步。
综上,毫米波雷达与相机的具体感知融合方式如图 3所示:单独利用 DC - FasterR - CNN对视觉图
像上障碍物类别和检测框在像素坐标系中的位置进行检测;单独将毫米波雷达采集到的数据进行噪声
过滤、DBSCAN聚类等处理,获得障碍物的距离、速度等信息;将上述多源信息在空间上映射到相同
的坐标系,并在时间上对齐,得到最终融合检测结果。该融合方式同时利用了雷达和相机的检测结
果,能够获得更加全面的前方障碍物信息,有助于无人碾压机的决策。
3 案例研究
以中国西南大型水利工程 TB碾压混凝土重力坝为研究对象,将毫米波雷达感知到的障碍物距离、
速度信息与相机感知到的障碍物类别信息进行融合,能够为无人碾压机提供更加全面、精准的障碍物
信息,进而实现无人碾压机的精准避障。
3.1 基于 DC - FasterR - CNN的障碍物类型识别 本研究选用摄像头型号为海康威视(HIKVISION) -
E12a 作为视觉传感器,利用 2.1节提出的 DC - FasterR - CNN对仓面内多类型障碍物进行检测。
首先准备训练检测网络所用数据集。利用摄像机拍摄 TB碾压混凝土重力坝施工现场多类型障碍
物照片 1000张,其中包括自卸车、振捣台车、施工员、推土机、碾压机和小型汽车等 6种类别,选用
其中 800张作为训练集并标注,其余 200张作为测试集用以验证模型性能。
然后对 DC - FasterR - CNN目标检测模型进行训练。将 DC - FasterR - CNN在计算机视觉领域目标
检测任务的基准数据集 PASCALVOC2007 + 2012上进行预训练,而后利用施工现场数据集对预训练得
到的模型权重进行微调。本研究的硬件环境为两张 NvidiaTitanX显卡,16 × 2GB内存,CPU为 Intel
xeon(R)@2.4GHz,软件运行环境为 Pytorch1.8.1,Python3.8(ubuntu20.04)。将 DC - FasterR - CNN与
YOLO和 FasterR - CNN算法的训练收敛曲线进行对比,对比结果如图 4所示。
由图 4可见,相较于 FasterR - CNN和 YOLO,DC - FasterR - CNN在训练时的代价函数值最低,相
应的训练效果最好。三者检测各类障碍物时平均精度值 mPA及平均测试时间的对比分析结果,如表 1
所示。
0
— 1 4 8 —