[发明专利]基于多智能体激光雷达和视觉信息融合的地图生成方法有效
| 申请号: | 202010548671.7 | 申请日: | 2020-06-16 |
| 公开(公告)号: | CN111880191B | 公开(公告)日: | 2023-03-28 |
| 发明(设计)人: | 孙嘉航;李瑜茹;陈晨;程翔 | 申请(专利权)人: | 北京大学 |
| 主分类号: | G01S17/89 | 分类号: | G01S17/89;G01S17/86;G01S17/931;G01S19/14 |
| 代理公司: | 北京万象新悦知识产权代理有限公司 11360 | 代理人: | 黄凤茹 |
| 地址: | 100871*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 智能 激光雷达 视觉 信息 融合 地图 生成 方法 | ||
1.一种基于多智能体激光雷达和视觉信息融合的地图生成方法,每个单智能体分别联合标定单智能体的激光雷达和视觉传感器,并识别单智能体的视觉传感器时间一致下的静态和动态目标;根据单智能体的GPS信息,将多智能体的检测结果进行融合;
在单智能体行进过程中,每个单智能体的视觉传感器在采集数据周期中,均执行以下步骤构建栅格地图:
步骤一、采集单智能体的激光雷达生成的点云数据,利用点云数据高程信息进行地面区域分割,去除地面反射点及不感兴趣区域,得到静态目标数据,包括静态目标的位置和形状,所述静态目标即静态障碍物;
步骤二、采集单智能体的视觉传感器拍摄的图像数据,使用图像检测算法,检测出图像中的动态目标数据,包括动态目标的位置及尺寸信息;
步骤三、将单智能体视觉传感器得到的动态目标数据投射到单智能体激光雷达得到的静态目标数据中,融合形成动静态目标数据;
采用同样方法对同一场景下另一单智能体传感器数据进行融合,并分别构建得到局部栅格地图;
对得到的数据进行融合的方法具体包括如下步骤:
1)获取激光雷达坐标系和视觉传感器相机坐标系之间的变换关系:首先将空间中的一点由世界坐标系转换到摄像机坐标系;然后再投影到成像平面,最后再将成像平面上的数据转换到图像平面;
2)利用激光雷达点云数据的高程信息进行地面区域分割;根据车辆位置,去除道路内的动态目标,得到静态目标的点云集合;
3)对于摄像机图像数据,利用激光雷达到图像坐标系变换关系的逆变换,将检测到的图像中的动态目标及动态目标区域内的像素点投影到激光雷达点云数据上,得到动态目标的点云集合;
4)对静态目标的点云集合和动态目标的点云集合进行聚类和归一化处理,计算得到点云概率密度图,生成局部栅格地图;
计算得到点云概率密度图,具体包括如下过程:
对于栅格地图中的一个点,p(s=1)表示该点是栅格未被占有状态的概率,p(s=0)表示该点是栅格被占有状态的概率;
栅格未被占有状态的概率与栅格被占有状态的概率两者的和为1:p(s=1)+p(s=0)=1;
将两者的比值作为栅格地图中点的状态,表示为:
对于栅格地图中的一个点,该点的状态为Odd(s);新增一个测量值z~{0,1},则更新该点的状态为:表示在z发生的条件下s的状态;
根据贝叶斯公式,得到:
对两边取对数得:
为测量值的模型,记/测量值为定值;
用logOdd(s)表示位置s的状态S,则:s+=s-+lomeas;其中,s+和s-分别表示测量值之后和之前s的状态;
在没有任何测量值的初始状态下,一个点的初始状态Sinit表示为:
即得到点云概率密度图;
5)对另一智能体激光雷达及摄像机数据进行同样处理,即执行步骤2)~4);再根据多智能体位置关系,将两张局部栅格地图拼接成为全局栅格地图;
步骤四、根据多智能体的位置信息,将局部栅格地图扩展成全局栅格地图;
通过上述步骤,即实现基于多智能体激光雷达和视觉信息融合的栅格地图生成。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010548671.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:岩溶地区地基的施工方法
- 下一篇:一种装配式桥梁阻挡装置





