[发明专利]一种物体检测方法和装置有效
申请号: | 201911268040.3 | 申请日: | 2019-12-11 |
公开(公告)号: | CN111160410B | 公开(公告)日: | 2023-08-08 |
发明(设计)人: | 林金表;肖军;刘旭 | 申请(专利权)人: | 北京京东乾石科技有限公司 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/764;G06V10/766;G06V10/774;G06V10/80;G06V10/82;G06T7/73 |
代理公司: | 中原信达知识产权代理有限责任公司 11219 | 代理人: | 张一军;王安娜 |
地址: | 100176 北京市北京经济技术开*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 物体 检测 方法 装置 | ||
本发明公开了一种物体检测方法和装置,涉及深度学习技术领域。该方法的一具体实施方式包括:通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物体的位置。该实施方式能够解决对视频流的检测性能受限于单帧物体检测方法的检测能力的技术问题。
技术领域
本发明涉及深度学习技术领域,尤其涉及一种物体检测方法和装置。
背景技术
物体检测技术是深度学习的一种重要技术,目前已被逐步应用到各个行业。在安防监控系统、无人超市系统、无人仓储系统等现代智能系统中,摄像头被安置在固定位置,进而执行检测任务,比如检测异常人员、检测火警、检测顾客购买商品等等。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
目前,通用的物体检测技术主要聚焦于单帧图像的检测。主流的物体检测方法采用卷积神经网络对单帧图像提取特征,再通过回归网络对物体的位置和种类进行预测并输出结果等。
而对于视频流的物体检测技术,往往会把视频分解成单帧图像,再采用物体检测方法去检测单帧图像,因此未能对视频信息进行更好的利用,检测性能受限于单帧物体检测方法的检测能力。
发明内容
有鉴于此,本发明实施例提供一种物体检测方法和装置,以解决对视频流的检测性能受限于单帧物体检测方法的检测能力的技术问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种物体检测方法,包括:
通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;
将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物体的位置。
可选地,所述卷积神经网络包括第一卷积神经网络和第二卷积神经网络;
通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型,包括:
分别将前一帧图像和当前帧图像输入到第一卷积神经网络,得到所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征;
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征;
将所述当前帧图像的第一图像特征输入到第二卷积神经网络中,得到所述当前帧图像的第二图像特征;
将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,以所述当前帧图像中物品的分类标签和位置作为输出,训练所述卷积神经网络、所述融合层和所述分类模型,从而得到物体检测模型。
可选地,所述卷积神经网络为ResNet或者VGGNet,所述第一卷积神经网络为所述卷积神经网络的前n层,所述第二卷积神经网络为所述卷积神经网络的其它层;其中,n的取值为第2-4个池化层的序号。
可选地,通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征,包括:
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征相减,得到所述当前帧图像的图像差异特征;
对所述当前帧图像的图像差异特征进行卷积操作和池化操作,得到所述当前帧图像的融合图像特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京京东乾石科技有限公司,未经北京京东乾石科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911268040.3/2.html,转载请声明来源钻瓜专利网。