[发明专利]一种基于时序与频域过滤的物体检测与物体切割算法在审
申请号: | 202110707449.1 | 申请日: | 2021-06-24 |
公开(公告)号: | CN113378757A | 公开(公告)日: | 2021-09-10 |
发明(设计)人: | 唐蔚然 | 申请(专利权)人: | 苏州幻岛信息科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/38;G06K9/40;G06K9/46;G06T5/00;G06T7/11;G06T7/136;G06T7/194;G06T7/246;G06T7/254 |
代理公司: | 北京棘龙知识产权代理有限公司 11740 | 代理人: | 张开 |
地址: | 215000 江苏省苏州市高*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 时序 过滤 物体 检测 切割 算法 | ||
本发明公开了一种基于时序与频域过滤的物体检测与物体切割算法,包括以下步骤:S1、输入视频,并抽取关键帧;S2、在频域中截取低频信息,在时序中按照公式计算实时背景图以及自适应阈值;S3、对输入的当前帧截取低频信息后,以S2中计算的实时背景图背景图和自适应阈值为标准,获取前景图,对当前帧进行前景和背景的判别,经过物体切割算法切割出当前帧图像中的目标物体,追踪追踪前景物体并去除错误物体后;将下一帧作为新的当前帧,重新进行背景计算状态和物体检测。该算法提供的实时背景更新方法和自适应阈值,在对目标物体的检测时,能够克服光线条件变化带来的影响,满足稳定对目标物体进行提取的需求,提高多种场景下检测的准确率。
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于时序与频域过滤的物体检测与物体切割算法。
背景技术
对垃圾识别场景中,有着大物体、长时间、光线有强烈变化的特点。传统的光流法、KNN、MOG2、GMG等算法均不能在此场景下,对目标物体进行长期稳定的提取处理。通过一种合适的阈值分割,根据目标的灰度和背景灰度不一致,将目标与背景分离,极大地降低了背景干扰,为后续的识别跟踪提供了良好的图像条件。
因此,需要设计一种能够抗复杂背景干扰、光照干扰的物体检测与物体切割算法。
发明内容
本发明克服了现有技术的不足,提供一种基于时序与频域过滤的物体检测与物体切割算法。
为达到上述目的,本发明采用的技术方案为:一种基于时序与频域过滤的物体检测与物体切割算法,包括:其特征在于,包括以下步骤:
S1、输入视频,获取图像,并抽取关键帧数据;
S2、背景计算:在频域中预处理并截取低频信息,在时序中按照公式计算实时背景图Imagebg以及自适应阈值T;
S3、物体检测:对输入的当前帧截取低频信息后,以S2中计算的实时背景图背景图和自适应阈值为标准,获取前景图,对当前帧进行前景和背景的判别,经过物体切割算法切割出当前帧图像中的目标物体,追踪追踪前景物体并去除错误物体后,对当前帧处理完毕;将下一帧作为新的当前帧,重新进行背景计算状态和物体检测。
本发明一个较佳实施例中,所述S2中,使用公式1在时序中计算实时背景图Imagebg:Imagebg=∑Rt-n×Imaget-n;Rt-n=(1/n)/∑(1/n);其中:t为时序编号,n=[0,15];Imaget-n为第t-n号图片。
本发明一个较佳实施例中,所述S2中,使用公式2在时序中计算自适应的阈值T;T=Lt-n×∑((1/n)/∑(1/n));其中:t为时序编号,n=[0,15];Lt-n为第t-n号图片的亮度。
本发明一个较佳实施例中,所述S2中使用低通滤波器low-pass滤波器,或者在频域中处理去除高频信息,获得低频图片。
本发明一个较佳实施例中,在所述S3中,若检测若干帧图像中未出现物体,继续进行背景累加。
本发明一个较佳实施例中,在所述S3中,若所述前景物体的大小与运动在置信区间内,设定为合理前景。
本发明一个较佳实施例中,在所述S3中,利用收缩算法去除噪点。
本发明一个较佳实施例中,在所述S3中,膨胀算法获得前景物体范围,并利用多边形算法获得前景物体图片。
本发明一个较佳实施例中,在所述S3中,利用motion-tracking算法,在时序中追踪前景物体。
本发明一个较佳实施例中,在所述S1中,所述关键帧数据的选择方式为每隔N帧或连续的图像帧。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州幻岛信息科技有限公司,未经苏州幻岛信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110707449.1/2.html,转载请声明来源钻瓜专利网。