[发明专利]一种道路遗撒物体检测方法、装置、设备及可读存储介质在审
申请号: | 201811253027.6 | 申请日: | 2018-10-25 |
公开(公告)号: | CN109492552A | 公开(公告)日: | 2019-03-19 |
发明(设计)人: | 宋彬;孙峰瑶;康煦 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/08 |
代理公司: | 北京华仲龙腾专利代理事务所(普通合伙) 11548 | 代理人: | 李静 |
地址: | 710000 陕西省*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 背景模型 延时 卷积神经网络 可读存储介质 物体检测 掩膜图像 二值化 自适应背景建模 图像处理技术 高精度定位 计算复杂度 背景建模 监控视频 类别判断 物体类别 物体图像 训练样本 即时性 视频帧 构建 送入 视频 检测 保证 | ||
1.一种道路遗撒物体检测方法,其特征在于,所述方法包括:
根据K近邻方法对监控视频进行自适应背景建模,获得即时背景模型和延时背景模型;
根据预获取的预训练图像与标签文件,结合已有的监控视频训练数据,训练并构建深度卷积神经网络模型;
将待检测视频分别送入所述即时背景模型和延时背景模型中,获取与视频帧对应的二值化即时掩膜图像和二值化延时掩膜图像;
对所述二值化即时掩膜图像和二值化延时掩膜图像进行比对,确定遗撒物体的位置;
将所述遗撒物体图像输入所述深度卷积神经网络模型中,确定所述遗撒物体的类别。
2.如权利要求1所述的道路遗撒物体检测方法,其特征在于,还包括:
当遗撒物体的类别无法从深度卷积神经网络模型中识别,则将所述遗撒物体图像进行存储,并归类为未知分类遗撒物体图像;
对所述未知分类遗撒物体图像进行标签标注,并记录所述未知分类遗撒物体的位置与类别信息;
根据所述标签标注后的未知分类遗撒物体图像,对深度卷积神经网络模型进行更新。
3.如权利要求1所述的道路遗撒物体检测方法,其特征在于,所述根据预获取的预训练图像与标签文件,结合已有的监控视频训练数据,构建并训练深度卷积神经网络模型,具体包括:
基于开放的大型图像数据库,获取带有文件标签的预训练图像以及标签文件;
将所述带有文件标签的预训练图像以及标签文件输入深度卷积神经网络进行一次训练;
从已有监控视频中,获取含遗撒物体的视频帧中所述遗撒物体的位置与类别信息,作为训练数据;
根据所述训练数据,对一次训练后的深度卷积神经网络进行二次训练,构建深度卷积神经网络模型。
4.如权利要求1所述的道路遗撒物体检测方法,其特征在于,所述将待检测视频分别送入所述即时背景模型和延时背景模型中,获取与视频帧对应的二值化即时掩膜图像和二值化延时掩膜图像,具体包括:
将待检测视频的每一视频帧分别送入即时背景模型和延时背景模型中;
对所述即时背景模型和延时背景模型进行更新,并获取前景提取图;
对所述前景提取图进行形态学开运算操作处理,以获取所述视频帧对应的二值化即时掩膜图像和二值化延时掩膜图像。
5.如权利要求1所述的道路遗撒物体检测方法,其特征在于,所述对所述二值化即时掩膜图像和二值化延时掩膜图像进行比对,确定遗撒物体的位置,具体包括:
对二值化即时掩膜图像和二值化延时掩膜图像进行比较,获取所述二值化即时掩膜图像和二值化延时掩膜图像中交叠率低于预设值的前景物体框;
根据所述前景物体框,获取潜在遗撒物体的位置;
当所述前景物体框在视频帧中出现的次数大于预设阈值时,则确定所述潜在遗撒物体为遗撒物体,并确定所述遗撒物体的位置。
6.如权利要求1所述的道路遗撒物体检测方法,其特征在于,所述将所述遗撒物体图像输入所述深度卷积神经网络模型中,确定所述遗撒物体的类别,具体包括:
接收从视频帧原图中提取出来的遗撒物体图像,并对所述遗撒物体图像的分辨率进行重置处理;
将所述处理后的遗撒物体图像输入所述深度卷积神经网络模型中;
判断所述深度卷积神经网络模型输出的最大概率是否大于预设分类阈值,若是,则确认所述遗撒物体类别为相应类别;若否,则确认所述遗撒物体的类别为未知分类遗撒物体。
7.如权利要求3所述的道路遗撒物体检测方法,其特征在于,所述深度卷积神经网络的结构为5个卷积-池化特征提取层、3个全连接层以及1个分类层。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811253027.6/1.html,转载请声明来源钻瓜专利网。