[发明专利]基于深海视频的运动目标检测方法和装置有效
申请号: | 201810932879.1 | 申请日: | 2018-08-16 |
公开(公告)号: | CN109215047B | 公开(公告)日: | 2021-02-12 |
发明(设计)人: | 李晨;邱实;张少伟;孙科林;全向前;杨景川 | 申请(专利权)人: | 中国科学院深海科学与工程研究所;中国科学院西安光学精密机械研究所 |
主分类号: | G06T7/13 | 分类号: | G06T7/13;G06T7/20;G06K9/46;G06K9/00 |
代理公司: | 深圳市科进知识产权代理事务所(普通合伙) 44316 | 代理人: | 曹卫良 |
地址: | 572000 海*** | 国省代码: | 海南;46 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深海 视频 运动 目标 检测 方法 装置 | ||
1.基于深海视频的运动目标检测方法,其特征在于,包括:
步骤S101:依据所述深海视频构建背景模型,并对所述背景模型进行初始化获得初始化背景模型;
步骤S102:以所述初始化背景模型为基础,对从所述深海视频中提取得到的多帧图像进行分类,分为前景运动图像或背景图像;
步骤S104:提取所述背景图像、当前图像及所述前景运动图像的区域边界,并判定所述背景图像区域边界及当前图像区域边界与所述前景运动图像区域边界的相似度,若所述背景图像区域边界与所述前景运动图像区域边界的相似度高于所述当前图像区域边界与所述前景运动图像区域边界的相似度,则用所述当前图像在所述前景运动图像中前景像素位置点的颜色值代替所述背景图像对应位置的颜色值,对所述背景图像进行更新,反之,则不更新;以更新后的所述背景图像作为纯背景图像进行运动目标检测。
2.根据权利要求1所述的方法,其特征在于,所述方法在步骤S102、S104之间还包括:
步骤S103:以分类得到的所述前景运动图像为基准点,计算所述背景图像的区域均值与方差,并以此对所述背景图像的区域进行增长约束,获得完整的运动目标,以及将所述运动目标所在像素点标记为前景像素。
3.根据权利要求1所述的方法,其特征在于,所述步骤S101包括:
根据当前像素点x,构建n个背景样本空间,vi表示为第i个背景样本值,背景模型Mx定义如下:
Mx={v1,v2,...,vn};其中1≦i≦n;
在当前像素点x的相邻区域N(x)中随机选取n个样本值作为初始化背景模型:
其中y等同于n个样本值。
4.根据权利要求3所述的方法,其特征在于,所述步骤S102包括:
在多帧图像中令第m帧图像所在的位置记为以R为搜索半径所围成的区域记为计算与的交集将所含像素的个数记为Q,当Q≤l时该第m帧图像分类为前景运动图像,反之分类为背景图像:
其中m为大于等于1的整数。
5.根据权利要求3所述的方法,其特征在于,以当前像素点x为中心,通过扩展匹配方式来选取相邻区域N(x)。
6.根据权利要求1所述的方法,其特征在于,采用CANNY算法提取所述背景图像及当前图像在所述前景运动图像的区域边界。
7.根据权利要求1所述的方法,其特征在于,以更新后的所述背景图像作为纯背景图像,后续从所述纯背景图像区域经过的其他目标均为运动目标。
8.基于深海视频的运动目标检测装置,其特征在于,包括:
背景模型构建模块,所述背景模型构建模块用于依据所述深海视频构建背景模型,并对所述背景模型进行初始化获得初始化背景模型;
分类模块,所述分类模块用于以所述初始化背景模型为基础,对从所述深海视频中提取得到的多帧图像进行分类,分为前景运动图像或背景图像;
更新模块,所述更新模块用于提取所述背景图像、当前图像及所述前景运动图像的区域边界,并判定所述背景图像区域边界及当前图像区域边界与所述前景运动图像区域边界的相似度,若所述背景图像区域边界与所述前景运动图像区域边界的相似度高于所述当前图像区域边界与所述前景运动图像区域边界的相似度,则用所述当前图像在所述前景运动图像中前景像素位置点的颜色值代替所述背景图像对应位置的颜色值,对所述背景图像进行更新,反之,则不更新;以更新后的所述背景图像作为纯背景图像进行运动目标检测。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
修补模块,所述修补模块用于以分类得到的所述前景运动图像为基准点,计算所述背景图像的区域均值与方差,并以此对所述背景图像的区域进行增长约束,获得完整的运动目标,以及将所述运动目标所在像素点标记为前景像素。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院深海科学与工程研究所;中国科学院西安光学精密机械研究所,未经中国科学院深海科学与工程研究所;中国科学院西安光学精密机械研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810932879.1/1.html,转载请声明来源钻瓜专利网。