[发明专利]定位方法、装置及车辆在审
申请号: | 202211096804.7 | 申请日: | 2022-09-08 |
公开(公告)号: | CN116188587A | 公开(公告)日: | 2023-05-30 |
发明(设计)人: | 陶圣;李春里;赵宏峰;林海;李雪健 | 申请(专利权)人: | 上海励驰半导体有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T5/00;G06V10/44 |
代理公司: | 北京乐知新创知识产权代理事务所(普通合伙) 11734 | 代理人: | 郑久兴 |
地址: | 200000 上海市浦东新区*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 定位 方法 装置 车辆 | ||
1.一种定位方法,其特征在于,所述方法包括:
获取目标图像;
根据环境场景,从多个地图中确定至少一个地图作为目标地图,不同地图的环境场景不同;
在所述目标图像的环境场景与所述目标地图的环境场景均不一致的情况下,对所述目标图像和/或所述目标地图的地图图像进行图像增强处理,以使所述目标图像的环境场景和所述地图图像的环境场景相一致;
将环境场景相一致的所述目标图像和所述地图图像进行对比;
根据对比结果,确定所述目标图像对应的位置。
2.根据权利要求1所述的方法,其特征在于,对所述目标图像和/或所述目标地图的地图图像进行图像增强处理,包括:
获取所述目标地图的环境参数;对所述目标图像进行图像增强处理,使所述目标图像的环境参数与所述目标地图的环境参数相一致;或者
获取所述目标图像的环境参数;对所述目标地图的地图图像进行图像增强处理,使所述地图图像的环境参数与所述目标地图的环境参数相一致。
3.根据权利要求1所述的方法,其特征在于,所述目标地图包括第一目标地图和第二目标地图;对所述目标图像和/或所述目标地图的地图图像进行图像增强处理,包括:
获取所述第一目标地图的第一环境参数和所述第二目标地图的第二环境参数;根据所述第一环境参数对所述目标图像进行第一图像增强处理,消除所述目标图像的所述环境场景的第一环境因素;所述第一图像增强处理后的所述目标图像进行第二图像增强处理,使所述目标图像的所述环境场景的第二环境因素的环境参数与所述第二环境参数相一致;或者
获取所述第一目标地图的第一环境参数和所述第二目标地图的第二环境参数;对所述目标图像进行第三图像增强处理,使所述目标图像的所述环境场景的第一环境因素的环境参数与所述第一环境参数相一致;所述第三图像增强处理后的所述目标图像进行第四图像增强处理,使所述目标图像的所述环境场景的第二环境因素的环境参数与所述第二环境参数相一致。
4.根据权利要求1所述的方法,其特征在于,根据对比结果,确定所述目标图像对应的位置,包括:
确定与所述目标图像相匹配的地图图像;
确定所述目标图像与相匹配的所述地图图像的相对方位及距离;
根据所述地图图像对应的位置和所述相对方位及距离确定所述目标图像对应的位置。
5.根据权利要求1所述的方法,其特征在于,将环境场景相一致的所述目标图像与所述地图图像进行对比,包括:
提取所述目标图像的图像特征;
将所述目标图像的图像特征与所述地图图像的图像特征进行对比;
所述目标图像的图像特征与所述地图图像的图像特征的相似度达到阈值时,所述目标图像与所述地图图像相匹配;
根据相匹配的所述地图图像对应的位置确定所述目标图像对应的位置。
6.根据权利要求1所述的方法,其特征在于,所述地图图像的所述图像特征包括第一图像特征和第二图像特征,所述第二图像特征用于描述所述地图图像的环境场景,所述第一图像特征用于所述目标图像与所述地图图像的对比定位。
7.根据权利要求1所述的方法,其特征在于,在将环境场景相一致的所述目标图像与所述地图图像进行对比之前,所述方法包括:
将所述目标图像分为多个子图;
删除动态障碍物所在的子图;
获取剩余的各子图的图像特征;
合并所述各子图的图像特征,得到所述目标图像的图像特征。
8.根据权利要求1所述的方法,其特征在于,多个所述地图基于对图像进行图像增强处理得到。
9.根据权利要求8所述的方法,其特征在于,多个所述地图基于对图像进行图像增强处理得到,包括:
获取目标区域的原始图像;
对目标区域的所述原始图像进行图像增强处理,得到多个环境场景不同的目标地图图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海励驰半导体有限公司,未经上海励驰半导体有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211096804.7/1.html,转载请声明来源钻瓜专利网。