[发明专利]一种适用于智能视频监控的目标检测方法与系统有效
申请号: | 202010984829.5 | 申请日: | 2020-09-18 |
公开(公告)号: | CN112183269B | 公开(公告)日: | 2023-08-29 |
发明(设计)人: | 徐勇;吴志昊 | 申请(专利权)人: | 哈尔滨工业大学(深圳) |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/764;G06V10/82;G06N3/0464;G06N3/048;G06N3/08 |
代理公司: | 深圳市添源创鑫知识产权代理有限公司 44855 | 代理人: | 覃迎峰 |
地址: | 518000 广东省深圳市南*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 适用于 智能 视频 监控 目标 检测 方法 系统 | ||
本发明提供了一种适用于智能视频监控的目标检测方法,包括以下步骤:1)通过轻量级骨干网络模块提取图像特征,同时利用大卷积核深度卷积和小卷积核深度卷积以分别捕获高分辨率模式和低分辨率模式;2)通过注意力机制模块进一步提升特征提取力,同时利用通道注意力模块和空间注意力模块在通道和空间轴两个维度上对特征图进行加权,调整特征响应值以强调或抑制信息,从而提高网络的表达力;3)通过多尺度预测模块预测目标的类别和位置,同时利用多尺度信息以适用于不同大小目标的检测。本发明还提供了一种适用于智能视频监控的目标检测系统。本发明的有益效果是:具有计算开销小且检测精度高的特点,可以实时检测视频流。
技术领域
本发明涉及目标检测方法,尤其涉及一种适用于智能视频监控的目标检测方法与系统。
背景技术
随着人工智能技术水平的不断提升以及云计算、大数据、物联网等相关产业的协同发展,智能视频监控逐渐普及。目标检测方法可以广泛应用在智能视频监控的诸多应用场景,如智能安防、智能交通、智能工厂等。广泛的应用意味着巨大的需求,也意味着巨大的计算开销和运维成本。但是,当前基于深度学习的目标检测方法面临精度高但开销大或开销小但精度低的问题,故不适用于智能视频监控。因此,计算开销小且检测精度高的目标检测方法非常重要。
目前,基于深度学习的目标检测方法可分为基于候选区域的两阶段网络和基于回归的单阶段网络。两阶段网络首先生成一系列的候选区域,然后判别其类别并对候选区域的位置进行回归修正。此类方法精度高,但生成候选区域的子网计算开销很大。基于回归的单阶段网络直接从图像上预测边界框位置和所属类别概率。相较于两阶段网络,此类方法没有生成候选区域阶段,因此开销小,但也导致精度低。
因此,如何提供一种开销小且精度高的目标检测方法,是本领域技术人员所亟待解决的技术问题。
发明内容
为了解决现有技术中的问题,本发明提供了一种适用于智能视频监控的目标检测方法与系统,具有精度高且开销小的特点,可以实时检测视频流。
本发明提供了一种适用于智能视频监控的目标检测方法,包括以下步骤:
1)通过轻量级骨干网络模块提取图像特征,同时利用大卷积核深度卷积和小卷积核深度卷积以分别捕获高分辨率模式和低分辨率模式,从而在计算开销小的前提下获得良好的特征提取能力;
2)通过注意力机制模块进一步提升特征提取力,同时利用通道注意力模块和空间注意力模块在通道和空间轴两个维度上对特征图进行加权,调整特征响应值以强调或抑制信息,从而提高网络的表达力;
3)通过多尺度预测模块预测目标的类别和位置,同时利用多尺度信息以适用于不同大小目标的检测。
作为本发明的进一步改进,所述的轻量级骨干网络模块主要由1×1卷积、批标准化、激活函数和混合深度卷积所构成的第一基本模块堆叠而成。
作为本发明的进一步改进,所述的轻量级骨干网络模块提取特征的方式如下:
输入:X∈RH×W×3为固定尺寸的训练/测试RGB图像,H表示图像的高,W表示图像的宽;
输出:F∈RH×W×C为轻量级骨干网络提取的特征图,H表示特征图的高,W表示特征图的宽,C表示特征图的数量;
步骤a1)通过1×1卷积将低维特征映射到高维,批标准化层保证神经网络每一层的输入保持相同分布,通过ReLU激活函数增加神经网络各层之间的非线性关系;
步骤b1)通过混合深度卷积同时捕获高分辨率模式和低分辨率模式和降低计算复杂度,批标准化层保证神经网络每一层的输入保持相同分布,ReLU/Swish激活函数增加神经网络各层之间的非线性关系;
步骤c1)1×1卷积将高维特征映射到低维,批标准化层保证神经网络每一层的输入保持相同分布;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学(深圳),未经哈尔滨工业大学(深圳)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010984829.5/2.html,转载请声明来源钻瓜专利网。