[发明专利]视觉惯性激光数据融合的模块化无人车定位方法及系统有效
| 申请号: | 202010340571.5 | 申请日: | 2020-04-26 |
| 公开(公告)号: | CN111595333B | 公开(公告)日: | 2023-07-28 |
| 发明(设计)人: | 李其仲;童祺堃;黄妙华 | 申请(专利权)人: | 武汉理工大学 |
| 主分类号: | G01C21/16 | 分类号: | G01C21/16;G01C11/04;G01S17/86;G06V10/44;G06V10/80;G06T7/73 |
| 代理公司: | 湖北武汉永嘉专利代理有限公司 42102 | 代理人: | 李丹 |
| 地址: | 430070 湖*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 视觉 惯性 激光 数据 融合 模块化 无人 定位 方法 系统 | ||
1.一种视觉惯性激光数据融合的模块化无人车定位方法,其特征在于,包括以下步骤:
1)采集获取无人驾驶汽车当前信息,包括通过单目相机采集的图像信息,激光雷达采集的三维点云信息以及IMU采集的加速度及角速度数据;
2)根据步骤1)采集的无人驾驶汽车当前信息,进行汽车的位姿估计,获得无人驾驶汽车的位姿信息;
3)根据位姿估计的位姿信息建立多传感器融合的优化模型,根据优化模型得到车辆的最佳位姿,并将其转化至世界坐标系下,得到车辆的实时位姿;所述优化模型为基于传感器模型的IMU测量误差、激光测量误差、相机测量误差设定误差函数,根据误差函数联立建立多传感器融合的优化模型;
其中,优化模型是通过建立位姿优化模型的最小二乘问题,构建残差函数进行最小二乘的迭代优化,利用L-M法迭代优化该最小二乘问题,得到车辆的最佳位姿,其中残差函数为:
其中,是IMU的测量误差,是视觉测量误差,是激光雷达的扫描误差,P是残差项对应的协方差矩阵;σ为视觉测量误差的权重系数,τ为激光测量误差的权重系数;
视觉测量误差的权重系数和激光测量误差的权重系数确定方法如下:
根据环境信息调控单目相机与激光雷达在优化中所占的权重,权重系数根据单目相机的关键帧共视路标点数和激光雷达点云数据的匹配特征数确定,设定两帧图像关键帧的最佳共视路标点数为A及两帧激光点云数据的最佳匹配特征点数为B,在每次建立优化模型前系计算当前关键帧共视路标点数a与最佳共视路标点数A比值a/A,计算当前激光点云匹配特征点数b与最佳匹配特征点数B比值b/B,视觉测量误差的权重系数σ=2×(a/A)/(b/B),激光测量误差的权重系数τ=2×[1-(a/A)/(b/B)]。
2.根据权利要求1所述的视觉惯性激光数据融合的模块化无人车定位方法,其特征在于,所述步骤2)中获得无人驾驶汽车的位姿信息,具体如下:
通过对极几何约束从本质矩阵中计算单目相机的帧间运动信息(xv,yv,zv,αv,βv,γv),并通过路标点对比算法筛选单目图像的关键帧进行标记,对IMU的测量数据进行预积分处理,然后与单目相机进行联合初始化,恢复单目相机的尺度,并估计系统的速度、陀螺仪零偏及重力方向,得到无尺度的位姿变换(xvi,yvi,zvi,αvi,βvi,γvi),即无人驾驶汽车的位姿信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉理工大学,未经武汉理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010340571.5/1.html,转载请声明来源钻瓜专利网。
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置





