[发明专利]一种无监督的端到端视频异常事件数据识别方法和装置有效
申请号: | 202210051701.2 | 申请日: | 2022-01-17 |
公开(公告)号: | CN114255447B | 公开(公告)日: | 2022-09-23 |
发明(设计)人: | 王思齐;余广;王思为;蔡志平;祝恩;徐传福;吴诚堃;高翔;熊敏 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/44;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 长沙国科天河知识产权代理有限公司 43225 | 代理人: | 李杨 |
地址: | 410073 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 监督 端视 异常 事件 数据 识别 方法 装置 | ||
1.一种无监督的端到端视频异常事件数据识别方法,其特征在于,所述方法包括:
获取待识别异常事件数据的无标注视频,在所述无标注视频的每一个视频帧上进行前景目标检测,将每一个前景目标以矩形限定框进行标识;
针对当前视频帧中每一个前景目标,将当前以及相邻多个视频帧中所述前景目标所在的矩形限定框位置的图像块抽取出来,缩放到预设大小后,按时间顺序堆叠,得到包含所述前景目标的视频事件数据;
将从所述无标注视频中提取出的所有未标注过的视频事件数据作为一个训练样本集输入到预设的深度神经网络中;所述训练样本集用于训练所述深度神经网络学习一个端到端的辅助任务;
通过预设的第一损失函数对所述深度神经网络进行少量轮数的初步训练,初步使得正常视频事件数据和异常视频事件数据的训练损失出现分化;所述第一损失函数为训练样本集中样本的训练损失之和;
初步训练之后,重构所述深度神经网络的损失函数为第二损失函数;所述第二损失函数中包括自步正则项;
通过基于所述第二损失函数的自步学习算法对所述深度神经网络进行进一步训练,根据各个训练样本的训练损失大小自适应地降低疑似异常视频事件数据在训练中的权重,进一步将训练损失较大的视频事件数据作为异常事件数据和训练损失较低的正常视频事件数据区分开来。
2.根据权利要求1所述的方法,其特征在于,将从所述无标注视频中提取出的所有未标注过的视频事件数据作为一个训练样本集输入到预设的深度神经网络中,包括:
将从所述无标注视频中提取出的所有未标注过的视频事件数据作为一个训练样本集输入到预设的深度神经网络中;所述深度神经网络为全卷积深度自编码器网络、UNet网络或Transformer网络。
3.根据权利要求1所述的方法,其特征在于,所述辅助任务为压缩-重建任务、压缩-倒序重建任务、压缩-乱序重建任务或压缩-预测任务。
4.根据权利要求3所述的方法,其特征在于,当所述辅助任务为压缩-重建任务时,通过预设的第一损失函数对所述深度神经网络进行少量轮数的初步训练,初步使得正常视频事件数据和异常视频事件数据的训练损失出现分化;所述第一损失函数为训练样本集中样本的训练损失之和,包括:
通过预设的第一损失函数对所述深度神经网络进行少量轮数的初步训练;
将输入的样本压缩为一个低维特征,再根据所述低维特征重建出输入样本的视频事件数据;
所述第一损失函数为训练样本集中样本的训练损失之和;所述第一损失函数为:
其中,Li(θ)代表第i个训练样本经以θ为参数的深度神经网络压缩-重建后的重建损失,n为所述训练样本集中训练样本的个数;
根据训练样本训练损失的大小初步区分正常视频事件数据和异常视频事件数据。
5.根据权利要求1所述的方法,其特征在于,重构所述深度神经网络的损失函数为第二损失函数;所述第二损失函数中包括自步正则项,包括:
重构所述深度神经网络的损失函数为第二损失函数;所述第二损失函数其中一项为所述训练样本的训练损失进行加权求和,另一项为混合自步正则项、二值自步正则项或线性自步正则项。
6.根据权利要求4所述的方法,其特征在于,当所述自步正则项为混合自步正则项时,所述第二损失函数为:
其中,vi代表范围在[0,1]的、第i个训练样本重建损失的权重,为混合自步正则项,且λ>λ′>0,为两个在训练过程中动态设定的超参数,λ′=μ(t)+σ(t),λ=max{μ(t)+(4-t·r)·σ(t),λ′},μ(t)和σ(t),分别代表深度网络参数第t次更新时所用的数据批中包含的视频事件数据的重建损失均值和方差,r为一个固定的收缩率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210051701.2/1.html,转载请声明来源钻瓜专利网。