[发明专利]一种高鲁棒性雷视融合的透雾目标识别方法在审
申请号: | 202210047699.1 | 申请日: | 2022-01-17 |
公开(公告)号: | CN114415173A | 公开(公告)日: | 2022-04-29 |
发明(设计)人: | 毕欣;许志秋;熊璐;张博;杨士超 | 申请(专利权)人: | 同济大学 |
主分类号: | G01S13/89 | 分类号: | G01S13/89;G01S13/86;G01S13/931;G06V20/10;G06K9/62;G06T5/00;G06N3/04 |
代理公司: | 江苏长德知识产权代理有限公司 32478 | 代理人: | 陈飞 |
地址: | 201804 上海市*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 高鲁棒性雷视 融合 目标 识别 方法 | ||
1.一种高鲁棒性雷视融合的透雾目标识别方法,其特征在于,包括:
获取目标车辆的有雾图像集和探测数据,探测数据包含若干个CAN报文,对有雾图像集进行去雾预处理,得到去雾图像集;
对去雾图像集进行视觉目标检测,得到包含视觉目标的目标检测集;
获取去雾图像集中去雾图像的图像时间戳以及接收报文的报文时间戳,根据图像时间戳和报文时间戳对视觉目标和目标数据进行匹配筛选,得到匹配集;
根据世界坐标系获取匹配集中毫米波雷达的探测目标坐标集和相机的视觉目标坐标集进行目标匹配,判断毫米波雷达的探测目标坐标集中与相机的视觉目标坐标集中是否存在未匹配的目标;
若存在,则将该目标设定为视觉漏检目标并生成漏检指令;若不存在,则生成第一识别集;
根据漏检指令和视觉漏检目标获取去雾图像的感兴趣区域,对感兴趣区域进行局部去雾,得到去雾区域,并对去雾区域进行二次视觉目标检测以及目标匹配并输出第二识别集。
2.根据权利要求1所述的一种高鲁棒性雷视融合的透雾目标识别方法,其特征在于,对探测数据中的CAN报文进行解析,通过ID对CAN报文进行筛选并提取目标数据,目标数据包含目标ID、目标横坐标和纵坐标、目标横向和纵向相对速度、目标运动状态以及目标散射截面积,以目标ID为索引,将目标数据存储至构建的目标列表中。
3.根据权利要求2所述的一种高鲁棒性雷视融合的透雾目标识别方法,其特征在于,对有雾图像集进行去雾预处理的具体步骤包括:
通过仿真环境对有雾图像集进行仿真,得到有雾图像集中有雾图像的平均透射率;
将平均透射率与预设的透雾阈值进行匹配,将低于透雾阈值的平均透射率对应的有雾图像设定为选中图像;
对选中图像进行分析判断是否需要对大气光值进行估算。
4.根据权利要求3所述的一种高鲁棒性雷视融合的透雾目标识别方法,其特征在于,对大气光值进行估算的具体步骤包括:
获取若干个选中图像的大气光值,基于三帧差分法获取相邻两帧图像大气光值的二值化差分值并对其交集进行分析;
当交集结果为1时,则判定该大气光值误差大并重新估算大气光值;
当交集结果不为1时,则判定该大气光值误差小并将该大气光值设定为修正大气光值。
5.根据权利要求4所述的一种高鲁棒性雷视融合的透雾目标识别方法,其特征在于,获取选中图像的修正透射率,并将修正大气光值和修正透射率通过有雾图像散射模型进行训练,得到去雾图像;若干个去雾图像按时间排序组合,得到去雾图像集。
6.根据权利要求5所述的一种高鲁棒性雷视融合的透雾目标识别方法,其特征在于,基于卷积神经网络的YOLOv3目标检测方法进行视觉目标检测。
7.根据权利要求6所述的一种高鲁棒性雷视融合的透雾目标识别方法,其特征在于,根据图像时间戳和报文时间戳对视觉目标和目标数据进行匹配筛选的具体步骤包括:
获取图像时间戳和报文时间戳并基于时间戳相近对齐策略进行匹配筛选,将符合时间戳范围的图像时间戳和报文时间戳对应的视觉目标和目标数据按时间排列组合,得到匹配集。
8.根据权利要求7所述的一种高鲁棒性雷视融合的透雾目标识别方法,其特征在于,建立毫米波雷达坐标系、相机坐标系和世界坐标系,通过世界坐标系将毫米波雷达坐标系和相机坐标系建立联系;
将毫米波雷达测量的目标数据中的目标坐标与世界坐标系进行坐标转换,得到第一转换坐标;将相机坐标系的目标坐标与世界坐标系进行坐标转换,得到第二转换坐标;
基于KM算法对若干个第一转换坐标和第二转换坐标建立二分图,分别对二分图上若干个点进行最小权匹配并获取距离列表;
将距离列表中的各元素与预设的距离阈值进行匹配,若大于距离阈值,则判定毫米波雷达目标与相机目标匹配不成功,并将该目标设定为视觉漏检目标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210047699.1/1.html,转载请声明来源钻瓜专利网。