[发明专利]视觉目标的确定方法及装置、存储介质、电子装置在审
| 申请号: | 202110845758.5 | 申请日: | 2021-07-26 |
| 公开(公告)号: | CN113505732A | 公开(公告)日: | 2021-10-15 |
| 发明(设计)人: | 陈向阳;李冬冬;李乾坤;殷俊;王凯 | 申请(专利权)人: | 浙江大华技术股份有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 王晓婷 |
| 地址: | 310051 浙江*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 视觉 目标 确定 方法 装置 存储 介质 电子 | ||
1.一种视觉目标的确定方法,其特征在于,包括:
通过雷达传感器对图像的感兴趣区域进行检测,得到所述感兴趣区域中的雷达目标的第一信息,以及通过图像传感器对所述感兴趣区域进行检测,得到所述感兴趣区域中的多个视觉目标的多个第二信息,其中,所述第一信息包括:所述雷达目标的第一位置信息和所述雷达目标的第一深度信息,所述第二信息包括:视觉目标的第二位置信息和视觉目标的第二深度信息,其中,所述第一深度信息用于指示所述雷达目标与所述雷达传感器之间的距离,所述第二深度信息用于指示视觉目标与所述图像传感器之间的距离;
根据所述第一位置信息和多个所述第二位置信息,分别计算所述雷达目标和所述多个视觉目标的目标距离,以及根据所述第一深度信息和多个所述第二深度信息,分别计算所述雷达目标和所述多个视觉目标的深度差值;
根据所述目标距离和所述深度差值,在多个视觉目标中确定与所述雷达目标匹配的第一视觉目标。
2.根据权利要求1所述的视觉目标的确定方法,其特征在于,根据所述目标距离和所述深度差值,在多个视觉目标中确定第一视觉目标,包括:
将所述目标距离和所述深度差值分别进行加权求和,得到多个第一数值;
在所述多个第一数值中确定数值最小的第一数值作为目标数据,并确定所述目标数据对应的视觉目标为第一视觉目标。
3.根据权利要求2所述的视觉目标的确定方法,其特征在于,将所述目标距离和所述深度差值分别进行加权求和,得到多个第一数值,包括:
通过以下公式确定第一数值K:
K=α*m+β*n,其中,α为非负数,且与所述目标距离对应的加权值,β为非负数,且与所述深度差值对应的加权值,m为所述目标距离,n为所述深度差值。
4.根据权利要求1所述的视觉目标的确定方法,其特征在于,根据所述第一位置信息和多个所述第二位置信息,分别计算所述雷达目标和所述多个视觉目标的目标距离,包括:
通过以下公式确定所述目标距离m:
根据所述第一深度信息和多个所述第二深度信息,分别计算所述雷达目标和所述多个视觉目标的深度差值,包括:
根据以下公式确定所述深度差值n:
其中,uci为所述视觉目标的横坐标值,uri为所述雷达目标的横坐标值,vci为所述视觉目标的纵坐标值,vri为所述雷达目标的纵坐标值,dci为所述视觉目标的第一深度信息,dri为所述雷达目标的第二深度信息。
5.根据权利要求1所述的视觉目标的确定方法,其特征在于,通过雷达传感器对图像的感兴趣区域进行检测,得到所述感兴趣区域中的雷达目标的第一信息之后,且在通过图像传感器对所述感兴趣区域进行检测,得到所述感兴趣区域中的多个视觉目标的多个第二信息之前,所述方法还包括:
根据所述雷达目标的第一位置信息将所述雷达目标映射到图像传感器采集到的视觉图像上;
确定视觉图像中所述雷达目标的中心点,并以所述雷达目标的中心点为中心在所述视觉图像上构建所述感兴趣区域;
通过目标检测模型对所述感兴趣区域进行检测,得到所述多个视觉目标。
6.根据权利要求5所述的视觉目标的确定方法,其特征在于,获取感兴趣区域的雷达目标的第一信息和多个视觉目标的第二信息之前,所述方法还包括:
获取所述雷达传感器采集的雷达数据以及所述图像传感器获取的图像数据,其中,所述雷达数据包括:第一时间数据,所述图像数据包括:第二时间数据;
将第一时间数据与第二时间数据的时间差小于预设阈值的目标雷达数据和目标图像数据进行组合,以得到多媒体数据,其中,所述多媒体数据中指示有所述感兴趣区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大华技术股份有限公司,未经浙江大华技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110845758.5/1.html,转载请声明来源钻瓜专利网。





