[发明专利]目标跟踪方法和装置在审
| 申请号: | 202011061084.1 | 申请日: | 2020-09-30 |
| 公开(公告)号: | CN112184772A | 公开(公告)日: | 2021-01-05 |
| 发明(设计)人: | 陈海波;武玉琪 | 申请(专利权)人: | 深兰人工智能(深圳)有限公司 |
| 主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/277;G06K9/46;G06K9/62 |
| 代理公司: | 常州佰业腾飞专利代理事务所(普通合伙) 32231 | 代理人: | 陈红桥 |
| 地址: | 518131 广东省深圳市龙华*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 目标 跟踪 方法 装置 | ||
本发明提供了一种目标跟踪方法和装置,其中,该方法包括以下步骤:对当前帧3D目标图像进行目标检测,以获取当前帧3D目标图像中N个目标物体的检测框;获取当前帧N个目标物体的跟踪框;判断当前帧中N个目标物体的检测框和跟踪框是否匹配成功;如果当前帧中存在m个目标物体的跟踪框匹配失败,则计算当前帧3D中m个目标物体的跟踪框与相应的前一帧中m个目标物体的检测框之间的单应矩阵;根据单应矩阵获取当前帧中m个目标物体的检测框,并判断当前帧中m个目标物体的跟踪框与检测框是否匹配;如果当前帧中m个目标物体的跟踪框与检测框匹配成功,则输出相应的3D跟踪轨迹。从而能够有效地避免出现目标物体漏检和错检的情况,提高了系统的可靠性。
技术领域
本发明涉及目标跟踪技术领域,具体涉及一种目标跟踪方法和一种目标跟踪装置。
背景技术
相关技术中,3D目标跟踪算法都是在激光雷达3D坐标系下,基于卡尔曼算法和匈牙利算法,根据连续帧之间的目标预测位置和实际位置,通过IOU(Intersection-over-Union,交并比)匹配,来建立跟踪轨迹进行目标跟踪。
然而,在实际应用中,小目标物体对位置偏差敏感,小范围的位置抖动会降低实际目标和预测目标的IOU值,从而容易造成小目标物体漏检和错检的情况,大大降低了系统的可靠性。
发明内容
本发明为解决上述技术问题,提供了一种目标跟踪方法,能够有效地避免出现目标物体漏检和错检的情况,从而大大提高了系统的可靠性。
本发明采用的技术方案如下:
一种目标跟踪方法,对当前帧3D目标图像进行目标检测,以获取当前帧3D目标图像中N个目标物体的检测框,其中,N为大于或等于1的正整数;获取当前帧3D目标图像中N个目标物体的跟踪框;判断当前帧3D目标图像中N个目标物体的检测框和跟踪框是否匹配成功;如果当前帧3D目标图像中存在m个目标物体的跟踪框匹配失败,则计算当前帧3D目标图像中m个目标物体的跟踪框与相应的前一帧3D目标图像中m个目标物体的检测框之间的单应矩阵,其中,m为大于或等于1且小于或等于N的正整数;根据单应矩阵获取当前帧3D目标图像中m个目标物体的检测框,并判断当前帧3D目标图像中m个目标物体的跟踪框与检测框是否匹配;如果当前帧3D目标图像中m个目标物体的跟踪框与检测框匹配成功,则输出相应的3D跟踪轨迹。
所述获取所述当前帧3D目标图像中N个目标物体的跟踪框包括:获取前一帧3D目标图像中所述N个目标物体的跟踪框;根据所述前一帧3D目标图像中所述N个目标物体的跟踪框,采用目标检测算法预测所述当前帧3D目标图像中N个目标物体的跟踪框。
目标跟踪方法,还包括:如果所述当前帧3D目标图像中存在n个目标物体的检测框匹配失败,则建立新的3D跟踪轨迹,并将所述当前帧3D目标图像中所述n个目标物体的检测框的类别记录在所述新的3D跟踪轨迹的类别属性列表中,其中,n为大于或等于1且小于或等于N的正整数。
目标跟踪方法,还包括:获取当前帧2D目标图像中所述N个目标物体的检测框和跟踪框;判断所述当前帧2D目标图像中所述N个目标物体的检测框和跟踪框是否匹配成功;如果匹配成功,则输出相应的2D跟踪轨迹,并将所述2D跟踪轨迹与所述3D跟踪轨迹进行合并。
目标跟踪方法,还包括:如果所述当前帧2D目标图像中存在k个目标物体的跟踪框匹配失败,则根据所述当前帧2D目标图像中所述k个目标物体的跟踪框预测下一帧2D目标图像中所述k个目标物体的跟踪框,其中,k为大于或等于1且小于或等于N的正整数;获取下一帧2D目标图像中所述k个目标物体的检测框;判断下一帧2D目标图像中所述k个目标物体的检测框和跟踪框是否匹配成功;如果匹配成功,则输出相应的2D跟踪轨迹,并将所述2D跟踪轨迹与所述3D跟踪轨迹进行合并。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深兰人工智能(深圳)有限公司,未经深兰人工智能(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011061084.1/2.html,转载请声明来源钻瓜专利网。





