[发明专利]一种基于深度学习的视频异常行为检测方法在审
申请号: | 201711145995.0 | 申请日: | 2017-11-17 |
公开(公告)号: | CN107944373A | 公开(公告)日: | 2018-04-20 |
发明(设计)人: | 陈华华;雷丽莹;郭春生 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙)33240 | 代理人: | 朱月芬 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 视频 异常 行为 检测 方法 | ||
技术领域
本发明属于视频处理技术领域,涉及一种对视频进行异常行为检测的方法,具体是一种基于深度学习的视频异常行为检测方法。
背景技术
视频异常行为检测是指采用智能分析算法,让计算机代替工作人员实现监控场景中目标行为的自动检测,并判断目标行为是否会给公众带来危险。当异常行为发生时,能自动识别场景中异常行为,并发出警报,提醒相关部门人员及时响应。
异常行为检测的工作主要分为两个过程:特征表征和异常行为判断。特征表征是指从视频数据中提取能够表达这段视频关键信息的特征,这个过程在整个检测过程起了关键的作用,特征的好坏直接会影响到最终的检测效果。考虑到监控场景的复杂多变性,以及人群流动速度不断变化,大多采用光流特征,但是光流特征对光线敏感,从而会影响到检测结果;考虑到光流的光线敏感性,又提出了对光线变化具有更好鲁棒性的纹理特征;之后又有学者提出将低层视觉特征和其它特征结合在一起使用,比如将检测目标的速度、尺寸、纹理等多个特征结合在一起表示行为。
近年来,随着深度学习理论的提出,为设计自动特征学习方法奠定了基础,它采用分层学习机制,能够自动地从输入数据逐层学习出高级抽象特征,而非采用手工设计的特征,它可以针对新的应用从训练数据中很快学习得到新的有效的特征表示,目前已经在可视目标识别、人体动作识别、以及人脸识别等多领域获得较为显著的效果。
因此,将深度学习应用到异常行为检测的特征表征阶段,往往可以取得相比传统特征提取方法更好的效果。
发明内容
本发明的目的就是提供一种有效的视频异常行为检测方法,以更好的表达特征,从而提高异常行为的检测率。
为解决上述技术问题,本发明提供的技术方案将深度学习与传统方法相结合,本方案分为训练阶段和测试阶段,其具体步骤如下:
步骤(1)、预处理:
选取待检测视频数据集,将视频中的图像数据帧变成灰度图像,图像尺寸规范化为M×N,M和N分别代表图像的宽和高;将数据集的前P帧作为训练集Y,剩余的Q帧作为测试集T,组成Y的数据都是正常行为的样本数据;
步骤(2)、训练阶段:
步骤(2-1).设Y中第i帧图像为yi;
首先,每隔M1帧连续取k帧图像,即得到作为训练样本一的第i个数据;
其次,每隔M2帧连续取k帧图像,即得到作为训练样本二的第i个数据;
最后,每隔M3帧连续取k帧图像,即得到作为训练样本三的第i个数据;
其中j表示相隔帧数的倍率,j∈[0,k-1];
得到三个训练样本集Y1、Y2、Y3,分别由所有的Y1i、Y2i、Y3i组成,即Y1={Y1i}、Y2={Y2i}、Y3={Y3i};其中0≤i≤P-1-max(M1,M2,M3)×(k-1);
步骤(2-2).以Y1、Y2、Y3作为输入分别送到Alexnet(注:引用自ImageNet classification with deep convolutional neural networks[C]//International Conference on Neural Information Processing Systems.Curran Associates Inc.2012:1097-1105.)网络中,将网络的第3层输出作为提取的特征,并对得到的特征进行归一化处理,得到三组特征数据集合F1、F2、F3,它们分别由相应的所有样本集数据的特征所组成;其中Alexnet网络是以2012年imagenet大赛的冠军获得者Alex命名的卷积神经网络;
步骤(2-3).为F1、F2、F3的每个特征数据赋予一个标签值,因为训练样本都是正常行为,标签数据分别为L1={1}、L2={1}、L3={1},|L1|=|L2|=|L3|=|F1|=|F2|=|F3|,其中符号“||”表示求集合的元素个数;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711145995.0/2.html,转载请声明来源钻瓜专利网。