[发明专利]一种机器人的跟踪方法和装置在审
| 申请号: | 202110209206.5 | 申请日: | 2021-02-24 | 
| 公开(公告)号: | CN113065392A | 公开(公告)日: | 2021-07-02 | 
| 发明(设计)人: | 钟火炎 | 申请(专利权)人: | 苏州盈科电子有限公司 | 
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06T7/50;G05D1/02 | 
| 代理公司: | 北京林达刘知识产权代理事务所(普通合伙) 11277 | 代理人: | 刘新宇 | 
| 地址: | 215144 江*** | 国省代码: | 江苏;32 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 一种 机器人 跟踪 方法 装置 | ||
1.一种机器人的跟踪方法,其特征在于,所述机器人上设置有三维视觉传感器,包括:
利用所述三维视觉传感器获取检测范围内的图像数据和深度数据;
根据所述图像数据和所述深度数据,确定待跟踪的目标对象及所述目标对象的位置信息;
根据所述目标对象的位置信息,确定机器人的目标速度和目标方向,并控制所述机器人按照所述目标速度和目标方向行驶。
2.根据权利要求1所述的方法,其特征在于,所述根据所述图像数据和深度数据,确定待跟踪的目标对象及所述目标对象的位置信息,包括:
将所述图像数据输入目标检测模型,经所述目标检测模型输出标注有目标对象的图像数据,其中,所述目标检测模型被设置为利用图像数据与标注有目标对象的图像数据之间的对应关系训练获得;
根据所述标注有目标对象的图像数据和所述深度数据,确定待跟踪的目标对象及所述目标对象的位置信息。
3.根据权利要求2所述的方法,其特征在于,在所述目标对象包括多个的情况下,所述根据所述标注有目标对象的图像数据和所述深度数据,确定待跟踪的目标对象及所述目标对象的位置信息,包括:
将所述标注有目标对象的图像数据输入至多目标标识模型,经所述多目标标识模型,输出包含有目标对象标识信息的图像数据,所述多目标标识模型被设置为利用标注有目标对象的图像数据与包含有目标对象标识信息的图像数据之间的对应关系训练获得;
根据包含有目标对象标识信息的图像数据和所述深度数据,确定待跟踪的目标对象及所述目标对象的位置信息。
4.根据权利要求3所述的方法,其特征在于,所述根据包含有目标对象识别信息的图像数据和所述深度数据,确定待跟踪的目标对象及所述目标对象的位置信息,包括:
接收用户指定的待跟踪的目标对象的标识信息;
根据所述标识信息和所述深度数据,确定与所述标识信息相匹配的目标对象及所述目标对象的位置。
5.根据权利要求1所述的方法,其特征在于,所述根据所述图像数据和所述深度数据,确定待跟踪的目标对象及所述目标对象的位置信息,包括:
获取待跟踪的目标对象的身体特征信息;
从所述图像数据中确定与所述身体特征信息相匹配的目标对象;
根据所述目标对象及所述深度数据,确定所述目标对象的位置信息。
6.根据权利要求1所述的方法,其特征在于,所述根据所述图像数据和所述深度数据,确定待跟踪的目标对象及所述目标对象的位置信息,包括:
根据所述图像数据,确定待跟踪的目标对象及其在图像中的位置;
根据所述目标对象在图像中的位置,确定与所述位置相匹配的深度数据;
根据所述深度数据,确定待跟踪的目标对象相对于机器人的位置。
7.根据权利要求2所述的方法,其特征在于,所述目标检测模型被设置为利用图像数据与标注有目标对象的图像数据之间的对应关系训练获得,包括:
获取图像样本集合,所述图像样本集合包括多个标注有目标对象的图像样本;
构建目标检测模型,所述目标检测模型中设置有训练参数;
分别将所述图像样本输入至所述目标检测模型,生成预测结果;
基于所述预测结果与标注有目标对象的图像样本之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求。
8.根据权利要求3所述的方法,其特征在于,所述多目标标识模型被设置为利用标注有目标对象的图像数据与包含有目标对象标识信息的图像数据之间的对应关系训练获得,包括:
获取标注有目标对象的图像样本集合,所述图像样本集合中包括多个标注有目标对象标识信息的图像样本;
构建多目标标识模型,所述多目标标识模型中设置有训练参数;
分别将所述图像样本输入至所述多目标标识模型,生成预测结果;
基于所述预测结果与标注有目标对象标识信息的图像样本之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州盈科电子有限公司,未经苏州盈科电子有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110209206.5/1.html,转载请声明来源钻瓜专利网。





