[发明专利]一种用于移动机器人的视觉跟踪方法在审
申请号: | 202011409527.1 | 申请日: | 2020-12-05 |
公开(公告)号: | CN112507859A | 公开(公告)日: | 2021-03-16 |
发明(设计)人: | 黄攀峰;李沅澔;马志强;董刚奇;余航 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 金凤 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 移动 机器人 视觉 跟踪 方法 | ||
本发明公开了一种用于移动机器人的视觉跟踪方法。该方法使用一种基于HOG特征相似性计算和卡尔曼滤波反馈的全连接孪生网络跟踪算法,利用基于颜色统计的HOG特征作为外观模型,进一步区分场景中的多个相似目标,减少目标的身份跳跃。同时采用卡尔曼滤波运动模型,实现了对目标运动轨迹的准确预测,在细化边界框的同时,减少了搜索区域,解决了目标跟踪过程中的目标遮挡问题,减少了计算量。最后将跟踪目标的边界框位置信息传输给视觉伺服系统用于控制机器人。本发明有效地减少了因搜索无用区域而产生的计算资源浪费。
技术领域
本发明属于计算机视觉技术领域,具体涉及一种视觉跟踪方法。
背景技术
随着人工智能技术的快速发展,各种各样的机器人逐渐走进人们的日常生活,人们已将其视为能与环境、人类和其他机器人进行自然交互、自主适应复杂动态环境并协同作业的智能伙伴。相比于传统机器人,跟随移动机器人是未来的发展趋势,它作为服务机器人的一种,其功能主要体现在以特定的移动目标作为跟踪对象,自主完成连续的跟随动作,广泛应用于特殊人群辅助(老人、残疾人)、家庭服务以及无人化物流搬运等领域。同样,跟随移动机器人越来越多的应用于军事领域和警务巡逻等任务中。自1990以来,移动机器人自动巡逻任务一直是人工智能(AI)和机器人学研究的一个热门领域,例如军方或者警方通过移动机器人对可疑目标进行持续监视和跟随任务,以防止一些犯罪行为的发生,这极大的保障了社会的安全性。
视觉信息作为最丰富的目标信息来源,它如同人体的视觉系统一样,能够直观、真实地感知机器人周围的环境状况。因而目前大多数跟随移动机器人的研究都是基于视觉传感器来实现。一个可靠的机器人监视跟踪系统的前提是基于强大的目标视觉跟踪方法。依据网络结构差异将现有的跟踪算法分为基于相关滤波的跟踪算法和基于深度学习的跟踪算法。基于相关滤波算法的引进使得目标跟踪算法产生了巨大的改善,因其具有速度快、实时性好的优点,一直受到人们的关注。然而它的缺点在于边界效应问题,会限制训练得到的滤波器的判别能力,并且在跟踪过程中当目标被遮挡时的处理问题没有进行很好的解决。基于深度学习的目标跟踪算法将每一帧图像分为目标和背景两类,利用深度卷积网络对目标进行特征提取、分类,该算法的特点是精准度高,针对复杂场景表现优越。然而在实际任务中通常只提供了视频序列的初始帧作为训练数据,因此如何在只有少量数据的前提下进行训练是首要问题。
发明内容
为了克服现有技术的不足,本发明提供了一种用于移动机器人的视觉跟踪方法。该方法使用一种基于HOG特征相似性计算和卡尔曼滤波反馈的全连接孪生网络跟踪算法,利用基于颜色统计的HOG特征作为外观模型,进一步区分场景中的多个相似目标,减少目标的身份跳跃。同时采用卡尔曼滤波运动模型,实现了对目标运动轨迹的准确预测,在细化边界框的同时,减少了搜索区域,解决了目标跟踪过程中的目标遮挡问题,减少了计算量。最后将跟踪目标的边界框位置信息传输给视觉伺服系统用于控制机器人。本发明有效地减少了因搜索无用区域而产生的计算资源浪费。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:构建基于HOG特征的相似性计算方法;
将基于颜色统计的HOG特征作为外观模型加入到SiamFC跟踪框架中,具体如下:
设定x为目标人物的初始模板图像,z为下一时间段帧摄像头实时拍摄的一组图像,z≥2;
采用SiamFC跟踪框架判断初始模板图像x和图像组z之间的相似性,保留SiamFC跟踪框架输出响应图中大于设定阈值的高分区域图像,记为y;
对初始模板图像和高分区域图像提取HOG特征向量,利用Pearson相关系数建立初始模板图像与高分区域图像之间的相似性对比:
其中和是初始模板图像x和高分区域图像y的期望值,xj和yj分别表示初始模板图像与高分区域图像的HOG特征向量,N为高分区域图像数量;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011409527.1/2.html,转载请声明来源钻瓜专利网。