[发明专利]目标追踪方法、系统、可读存储介质及电子设备在审
申请号: | 201810632595.0 | 申请日: | 2018-06-19 |
公开(公告)号: | CN108960084A | 公开(公告)日: | 2018-12-07 |
发明(设计)人: | 袁春;林之冠 | 申请(专利权)人: | 清华大学深圳研究生院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 深圳市鼎言知识产权代理有限公司 44311 | 代理人: | 曾昭毅;郑海威 |
地址: | 518055 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标追踪 可读存储介质 电子设备 物体表面 低分辨率 高分辨率 目标图像 低分辨率图像 目标追踪系统 模型获取 图像块 追踪器 帧内 图像 场景 重建 更新 | ||
一种目标追踪方法包括:将低分辨率图像重建为高分辨率的目标图像;根据所述目标图像训练出物体表面模型;根据训练得到的物体表面模型获取当前帧内目标的可能的位置;确定当前帧的目标的位置。本发明还提供了一种目标追踪系统、可读存储介质及电子设备。本发明一种目标追踪方法、系统、可读存储介质及电子设备,可将低分辨率的图像块生成为高分辨率的图像,有利于减少传统判别类追踪器在低分辨率场景下缺少信息判别的问题,还可根据确定的当前帧的目标的位置来更新物体表面模型,进而有利于提高目标追踪的确定度。
技术领域
本发明涉及计算机视觉与图像处理领域,尤其是涉及一种可基于低分辨率图像的目标追踪方法、系统、可读存储介质及电子设备。
背景技术
图像语义分割是计算机视觉领域中一项重要的研究内容,其目标是将图像分割成具有不同语义信息的区域,并且标注每个区域相应的语义标签,例如通过对一幅图像进行图像语义分割后可为图像中的物体添加语义标签(譬如桌子、墙壁、天空、人、狗等),可应用于例如无人驾驶等领域。
目前,用于图像语义分割的较主流的解决方案主要基于卷积神经网络(Convolutional Neural Networks,简称CNN),该网络学习图像的语义特征表示。比如全卷积网络(Fully Convolutional Networks,简称为FCN)通过构建包含卷积层、池化层和反卷积层的卷积神经网络,以端到端的方式将任意大小的输入图像转换为像素级的分类结果,为研究人员和工程师提供了一种简单而有效的方法来解决图像语义分割问题。DeepLab和DilatedNet把全卷积网络中普通卷积替换为扩散卷积使得语义分割预测时结合更多的上下文和场景信息。
然而,这些模型还存在各种各样的问题,特别是对于复杂的对象和多样的场景。例如全卷积网络忽略了图像的全局信息和潜在有用的场景语义上下文信息,因此容易将一些物体的某些部分错误地标注为其他物体。最近一些学者尝试融合更多的上下文信息和全局信息来解决这些容易预测错误的区域,例如DeepLab 和DilatedNet扩大了滤波器的感受野以融合更多的上下文,但遗漏了详细的信息,会把同一个物体预测成多个标签;ParseNet则融合了全局平均池化的特征以使这部分区域与全局标签统一,但对于场景复杂包含大量标签的图像则没有太大变化;DenseCRF基于全卷积网络的预测结果和图像的颜色纹理信息来进行后处理,合并颜色纹理相近但标签不同的区域,但容易把原本预测正确的区域合并为错误的区域。
以上背景技术内容的公开仅用于辅助理解本发明的发明构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日前已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
鉴于以上内容,有必要提供一种可提高追踪结果准确度的目标追踪方法、系统、可读存储介质及电子设备。
一种目标追踪方法,包括:
将低分辨率图像重建为高分辨率的目标图像;
根据所述目标图像训练出物体表面模型;
根据训练得到的物体表面模型获取当前帧内目标的可能的位置;
确定当前帧的目标的位置。
进一步地,所述目标追踪方法中,所述将低分辨率图像重建为高分辨率的目标图像包括:
对低分辨率图像进行插值操作,以得到插值低分辨率图像;
将插值低分辨率图像输入至卷积神经网络,以对低分辨率图像进行卷积操作,并输出卷积图像;
根据插值低分辨率图像及卷积图像生成所述目标图像。
进一步地,所述目标追踪方法中,所述对低分辨率图像进行插值操作包括:
对低分辨率图像进行双三次插值操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳研究生院,未经清华大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810632595.0/2.html,转载请声明来源钻瓜专利网。