[发明专利]一种基于尺度上下文回归的目标追踪与跟随方法有效
申请号: | 202010117523.X | 申请日: | 2020-02-25 |
公开(公告)号: | CN111445497B | 公开(公告)日: | 2021-03-30 |
发明(设计)人: | 周瑜;白翔;朱盈盈;宋德嘉 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06T7/223 | 分类号: | G06T7/223 |
代理公司: | 深圳市六加知识产权代理有限公司 44372 | 代理人: | 向彬 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 尺度 上下文 回归 目标 追踪 跟随 方法 | ||
本发明公开了一种基于尺度上下文回归的目标追踪与跟随方法,包括:通过单目摄像机采集图片,用户通过在待跟随目标上设置一个标识物体所在图像区域的矩形包围盒来初始化追踪过程;使用尺度上下文回归模型进行目标追踪,获取目标位置和尺度;使用基于局部块的追踪目标质量评估方法,判断是否发生目标丢失并及时的进行重检测;建立跟随者自身与待跟随目标的相对位置关系,同时基于此相对位置关系调整跟随者自身位姿。本发明在目标跟随过程中,增强系统判别与待跟随目标具有相似语义干扰物的能力,通过后处理使系统能够判断目标是否丢失并及时进行重检测,建立自身与目标的相对位置关系,最后调整自身位姿进行跟随。
技术领域
本发明属于计算机视觉和机器人领域,更具体地,涉及一种基于尺度上下文回归的目标追踪与跟随方法。
背景技术
一直以来,目标跟随在人机交互领域中是一个重要的任务。目标跟随要求移动机器人能在连续的视频序列中先进行快速且准确的目标追踪,建立移动机器人自身与待跟随目标的相对位置关系,同时基于此关系调整移动机器人自身位姿,最终能够跟随到待跟随目标。其子任务目标追踪在整个跟随系统中起着定位目标的关键性作用,除在目标跟随系统中的应用外还有着广泛的用途,比如交通监控系统中的车辆追踪,智能交互系统中的手势追踪等等。由于实际场景的复杂多变,例如尺度变换、快速运动和遮挡等,该项任务仍然具有很高的挑战性,与此同时它也限制了目标跟随系统的稳定性。经典目标跟随方法往往不能高效的判断是否存在与追踪目标相似语义的干扰物,也无法自主的判断目标是否丢失并在目标丢失时及时进行重检测。
常用的目标跟随方法包含:基于激光的方法,基于深度相机的方法和基于单目相机的方法。基于激光的方法需要输入激光测距数据,由于忽略了大量的目标表观信息,该类方法无法区分两个相似的物体。同时,当目标丢失时,也无法利用激光测距数据进行重检测。基于深度相机的方法由于深度相机的视场角往往比较窄,有最小距离要求,并且在室外场景下往往表现不佳,导致其应用范围有限。基于单目相机的方法最近取得了不错的结果,但是仍然有其局限性。它往往由单目相机采集图片,利用目标追踪算法定位目标,然后进行快速的后处理建立目标与移动机器人的相对位置关系,最后基于此调整机器人位姿。
直接使用传统的目标跟踪算法,往往不能高效的判断是否存在与追踪目标相似语义的干扰物。一次误判将导致整个系统的跟随对象改变,这种情况在人群密集的场景中尤为常见。与此同时,在跟随过程中若出现遮挡情况时,目标将发生丢失。在以往的目标跟随系统中,采用的后处理方式不能自主的判断目标丢失是否已发生,并在该情况下进行及时的重检测。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于尺度上下文回归的视觉目标追踪和跟随系统,其目的在于在目标跟随过程中,增强系统判别与待跟随目标具有相似语义干扰物的能力,通过后处理使系统能够判断目标是否丢失并及时进行重检测,建立移动机器人自身与目标的相对位置关系,最后调整移动机器人自身位姿进行跟随。
为了实现上述目的,本发明提供了一种基于尺度上下文回归的目标追踪与跟随方法,包括如下步骤:
(1)在机器人上安装单目摄像机,通过单目摄像机采集图片,用户在采集到的图片上,设置一个矩形包围盒B1来指定待跟随的目标物体,初始化追踪过程;
(2)使用尺度上下文回归模型进行目标追踪,获取目标位置和尺度,包含以下子步骤:
(2.1)通过在追踪过程中存储历史帧I={I1,I2,…,It},并利用每帧对应的预测目标包围盒B={B1,B2,…,Bt}作为标注信息,在线训练一个基于尺度上下文回归的分类器模型;包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010117523.X/2.html,转载请声明来源钻瓜专利网。