[发明专利]主动视觉跟踪移动目标方法及装置在审
申请号: | 202310252685.8 | 申请日: | 2023-03-07 |
公开(公告)号: | CN116405778A | 公开(公告)日: | 2023-07-07 |
发明(设计)人: | 钟方威;王亦洲 | 申请(专利权)人: | 北京通用人工智能研究院 |
主分类号: | H04N23/695 | 分类号: | H04N23/695;G06N3/092 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 聂俊伟 |
地址: | 100080 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 主动 视觉 跟踪 移动 目标 方法 装置 | ||
1.一种主动视觉跟踪移动目标方法,其特征在于,包括:
调用相机对待跟踪目标进行拍摄,获取当前时刻的所述待跟踪目标对应的目标图像;其中,所述目标图像包括彩色图像或者灰度图像,及深度图像;
基于所述目标图像,确定所述待跟踪目标与所述相机之间的距离信息和角度信息;
基于所述深度图像和预设的障碍概率,构建障碍物栅格地图;所述障碍物栅格地图表示以所述相机为中心预设范围内障碍物存在的概率;
基于所述距离信息、所述角度信息和所述障碍物存在的概率,确定运动控制信号,对所述待跟踪目标进行跟踪。
2.根据权利要求1所述的主动视觉跟踪移动目标方法,其特征在于,所述基于所述距离信息、所述角度信息和所述障碍物存在的概率,确定运动控制信号,对所述待跟踪目标进行跟踪,包括:
基于所述距离信息、所述角度信息和所述障碍物存在的概率,确定所述待跟踪目标的未来轨迹分布信息;所述未来轨迹分布信息表示所述待跟踪目标在未来连续K个时刻的位置的均值和方差,所述K为正整数;
基于所述距离信息、所述角度信息、所述未来轨迹分布信息和所述障碍物存在的概率,确定所述运动控制信号,对所述待跟踪目标进行跟踪。
3.根据权利要求2所述的主动视觉跟踪移动目标方法,其特征在于,所述基于所述距离信息、所述角度信息和所述障碍物存在的概率,确定所述待跟踪目标的未来轨迹分布信息,包括:
采用编码器分别对所述距离信息、所述角度信息和所述障碍物存在的概率进行编码,得到所述距离信息对应的距离向量、所述角度信息对应的角度向量和所述所述障碍物存在的概率对应的障碍向量;
采用解码器分别对所述距离向量、所述角度向量和所述障碍向量进行解码,输出所述待跟踪目标的未来轨迹分布信息。
4.根据权利要求2所述的主动视觉跟踪移动目标方法,其特征在于,所述基于所述距离信息、所述角度信息、所述未来轨迹分布信息和所述障碍物存在的概率,确定所述运动控制信号,对所述待跟踪目标进行跟踪,包括:
将所述距离信息、所述角度信息、所述未来轨迹分布信息和所述障碍物存在的概率进行拼接,得到所述待跟踪目标的状态表示信息;
对所述状态表示信息进行编码,得到所述运动控制信号,对所述待跟踪目标进行跟踪。
5.根据权利要求1至4任一项所述的主动视觉跟踪移动目标方法,其特征在于,所述基于所述目标图像,确定所述待跟踪目标与所述相机之间的距离信息和角度信息,包括:
基于所述彩色图像或者灰度图像,及所述待跟踪目标对应预设的样例图像,分别确定所述彩色图像或者灰度图像对应的第一图像特征和所述样例图像对应的第二图像特征;
将所述第一图像特征和所述第二图像特征进行匹配,确定所述待跟踪目标对应的目标区域;
基于所述目标区域和所述深度图像,确定所述待跟踪目标与所述相机之间的距离信息和角度信息。
6.根据权利要求5所述的主动视觉跟踪移动目标方法,其特征在于,所述基于所述目标区域和所述深度图像,确定所述待跟踪目标与所述相机之间的距离信息和角度信息,包括:
基于所述深度图像中每个像素点对应的距离,将所述目标区域中每个像素点的坐标位置转化为与所述相机相同坐标系的坐标位置;
基于转化后的坐标位置,分别计算所述待跟踪目标与所述相机之间的距离信息和角度信息。
7.根据权利要求1至4任一项所述的主动视觉跟踪移动目标方法,其特征在于,所述基于所述深度图像和预设的障碍概率,构建障碍物栅格地图,包括:
对所述深度图像进行转化,得到点云图像;
将所述点云图像中每个点的位置投影至二维平面坐标,得到每个点在所述二维平面坐标对应的位置信息;
基于所述位置信息和所述相机的位姿,将所述点云图像中每个点转换为全局栅格地图中对应位置的栅格区域;
对所述栅格区域增加预设的障碍概率,得到所述障碍物栅格地图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京通用人工智能研究院,未经北京通用人工智能研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310252685.8/1.html,转载请声明来源钻瓜专利网。