[发明专利]一种基于连续帧间差分的背景图像更新方法在审
申请号: | 201910472023.5 | 申请日: | 2019-05-31 |
公开(公告)号: | CN110349189A | 公开(公告)日: | 2019-10-18 |
发明(设计)人: | 万燕英;陈泽涛;雷洁;郑乐藩 | 申请(专利权)人: | 广州铁路职业技术学院(广州铁路机械学校) |
主分类号: | G06T7/254 | 分类号: | G06T7/254;G06T7/215 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 陈伟斌 |
地址: | 510430 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 背景图像 背景图像更新 运动目标检测 天气变化 连续帧 前景区 更新 区域代替 全部区域 异物检测 差分法 异物 检测 保证 | ||
本发明涉及一种基于连续帧间差分的背景图像更新方法,本发明用Fk(x,y)部分或全部区域更新背景图像,能降低对天气变化的敏感性。有异物时用BI(x,y)对应区域代替Fk(x,y)前景区,能够保证得到的新背景图像对应区域一定是干净的背景。适当扩大前景区,可以避免异物检测不完整时,检测不到的前景被当成Fk(x,y)的背景而用于更新背景图像,造成背景图像的不准确。本发明实现了基于背景差分法的运动目标检测过程中背景图像的更新,能得到准确的背景图像,有效降低天气变化对运动目标检测的影响。
技术领域
本发明涉及背景差分法检测运动目标时背景图像的更新方法,更具体地,涉及一种基于连续帧间差分的背景图像更新方法。
背景技术
视频监控技术大量应用于政府、金融、公安、交通、电力等领域,比如轨道交通中基于智能视频监控的轨道异物侵限检测。视频监控中运动目标的检测,又称前景提取,指从序列图像中将变化区域从背景图像中提取出来。运动目标的有效检测,对目标分类、跟踪、行为理解等后期处理非常重要。运动目标检测主要方法有光流法、帧间差分法和背景差分法。光流法利用图像序列中的像素在时间域上的变化、相邻帧之间的相关性来找到前一帧与当前帧存在的对应关系,计算出相邻帧之间物体的运动信息,受噪声、遮挡物等影响较大,运算复杂,计算量大。帧间差分法对视频序列图像中相邻两帧图像进行差分运算,通过比较连续帧间的差异来提取运动目标。该方法算法简单,对光线变化不敏感,环境适应能力强,但目标的运动速度和差分帧的时间间隔对检测结果影响较大。背景差分法将当前帧图像与背景图像相减,再二值化得到的差分图像,从而提取不同于背景图像的目标区域。这种方法原理简单,易于实现且检测速度快,但实际场景中背景图像会因天气、光照等动态变化,因此要不断进行背景更新。
这三种方法各有优缺点,仅应用其中某一种方法来检测运动目标,并不能得到非常好的检测结果。背景差分法检测结果的准确性,依赖于背景图像。而目前很多基于背景差分法的运动目标检测算法,背景图像都是一成不变的,或是在动态更新背景图像中获取不到准确的背景图像。针对背景差分法更新背景图像时存在的问题,有必要发明一种方法,来获得准确的背景图像以提高检测精度。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种基于连续帧间差分的背景图像更新方法。
为解决上述技术问题,本发明采用的技术方案是:一种基于连续帧间差分的背景图像更新方法,包括以下步骤:
S1.采集视频一段时间内若干帧无前景的图像,对它们求和后取平均值,作为初始背景图像;
S2.读取视频第一帧图像,将当前帧图像与初始背景图像作差得到差分图像;
S3.对差分图像进行二值化处理,得到二值图像,从而分离出前景与背景;
S4.通过形态学开操作滤去二值图像中孤立的前景点,闭操作获得前景较为完整的轮廓;
S5.当没有分离出前景时,用当前帧图像作为新的背景图像;
S6.若分离出前景,则在二值图中标记前景的最小外接矩形,并将外接矩形适当扩大;扩大后的矩形区域为前景区,其它为背景区;当前帧图像的前景区用初始背景图像对应区域的像素值替代,背景区保持不变,被替代后的当前帧图像作为新的背景图像;
S7.读取视频下一帧图像,将下一帧图像与新背景图像作差,重复步骤S3至S7。
进一步的,所述的S1步骤具体包括:选取视频某段时间内多帧无运动目标的图像,将它们求和后取平均值,得到的均值图像作为初始背景图像,即:
式中,BI(x,y)指初始背景图像,Fi(x,y)代表第i帧无运动目标的图像,N为无运动目标图像的帧数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州铁路职业技术学院(广州铁路机械学校),未经广州铁路职业技术学院(广州铁路机械学校)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910472023.5/2.html,转载请声明来源钻瓜专利网。