[发明专利]一种基于机器视觉的河流漂浮物实时检测方法有效
申请号: | 201910255206.1 | 申请日: | 2019-04-01 |
公开(公告)号: | CN110084129B | 公开(公告)日: | 2022-11-29 |
发明(设计)人: | 王剑平;李善超;杨晓洪;张果;车国霖;欧阳鑫 | 申请(专利权)人: | 昆明理工大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V20/40;G06V10/26;G06V10/764 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 650093 云*** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 机器 视觉 河流 漂浮 实时 检测 方法 | ||
1.一种基于机器视觉的河流漂浮物实时检测方法,其特征在于:输入现场视频流,利用视频流前三帧图像建立背景模型,并采用三帧法检测Ghost区域,建立Ghost更新模板;采用固定阈值与动态阈值相结合的方法来设定像素分类阈值,进行像素分类操作;同时,根据像素分类结果,建立前景二值化图像mask和匹配值更新模板;进行噪声消除和填充空洞操作;最后标记漂浮物,输出mask图像及标记帧,并根据mask图像修正匹配值更新模板,结合匹配值更新模板和Ghost区域更新模板进行背景模型更新;
包括以下步骤:
步骤1、首先设定监控摄像机视野范围,监控摄像机开始工作,实时采集天然河道的现场视频;对视频流进行切帧与灰度化处理,并设定方法相关参数;
步骤2、读入视频流前三帧图像,利用前三帧图像进行背景建模,同时采用三帧法检测前三帧中的Ghost区域,建立Ghost更新模板;
步骤3、采用固定阈值与动态阈值相结合的方法来设定像素分类阈值,进行像素分类操作;像素分类错做包括:将当前帧像素与背景模型中的样本进行比较,以分类阈值为标准判定像素属于背景还是前景,并得出像素在分类阈值内的匹配值;
步骤4、根据像素分类结果,建立前景二值化图像mask和匹配值更新模板;
步骤5、检测mask图像中的噪声与空洞,消除面积小于10的噪声,填充面积小于50的空洞;
步骤6、检测mask图像中各连通区域,并用方框标记输入帧上对应的连通区域,输出mask图像和标记后的输入帧;同时,根据mask图像修正匹配值更新模板,结合匹配值更新模板和Ghost更新模板进行更新背景模型;
针对步骤5丢弃处理的位置,设定匹配值更新模板对应位置的值为k,各像素匹配值为n;针对步骤5填充空洞的位置,则匹配值更新模板对应位置的值为0,如公式(1)所示:
根据更新模板update(x)中值的大小设定更新因子,并进行背景模型的更新;这样增加背景模型的复杂度,加速旧样本值地淘汰,引入更多不同的新背景像素,如公式(2)所示:
其中,更新因子φ越大,其更新概率越小,更新概率P(x)与更新因子φ的关系是:P(x)=1/φ;更新模板update(x)值为0时,不进行背景模型更新;update(x)值小于9时,必进行背景模型更新;update(x)值小于15时,以50%的概率更新背景模型;其他情况,以25%的概率更新背景模型;
通过计算像素的背景模型的标准偏差来确定像素的动态阈值,如公式(3)和(4)所示:
得到像素x的动态阈值后,需要将固定阈值与动态阈值结合起来设定像素分类阈值;像素分类阈值是在动态阈值σ(x)的基础上加上固定阈值R,从而得出自适应距离阈值R(x);为确保检测的精度,需要对每个像素点背景样本值距离阈值R(x)范围进行限定,选取多个河流漂浮物检测视频流实验后发现,R(x)范围在[40,80]区间内具有理想的效果,如公式(5)所示:
R(x)=R+σ(x)·γ R(x)∈[40,80] (5)
其中,R取40,γ取3。
2.根据权利要求1所述的基于机器视觉的河流漂浮物实时检测方法,其特征在于:所述步骤2中,读入视频流前三帧图像,将每帧图像的像素x及其8邻域NG(x)如公式(7)的像素值作为初始背景模型M0(x)的背景样本,则初始背景模型M0(x)将由N=27个背景样本组成;三帧初始化背景模型具体公式如下:
xi={y|y∈{x,NG(x)}} (6)
其中,xi表示索引为i的像素,M1(x),M2(x),M3(x)分别为视频流第一、二、三帧像素x及其8邻域NG(x)的像素值集合;M0(x)为像素x的初始背景模型的样本集,其是由三帧的像素值集M1(x),M2(x),M3(x)组成。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于昆明理工大学,未经昆明理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910255206.1/1.html,转载请声明来源钻瓜专利网。