[发明专利]基于距离匹配函数和感知哈希算法的织物疵点检测方法有效
申请号: | 201711191878.8 | 申请日: | 2017-11-24 |
公开(公告)号: | CN108090894B | 公开(公告)日: | 2020-09-08 |
发明(设计)人: | 徐贤局;顾敏明;潘海鹏 | 申请(专利权)人: | 浙江理工大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/11 |
代理公司: | 无锡市汇诚永信专利代理事务所(普通合伙) 32260 | 代理人: | 张欢勇 |
地址: | 310018 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 距离 匹配 函数 感知 算法 织物 疵点 检测 方法 | ||
本发明公开了一种基于距离匹配函数和感知哈希算法相结合的办法检测规则织物的疵点。首先,采用距离匹配函数计算出规则织物的最小周期,用于获取图像块。构建重复单元模板,采用感知哈希算法提取模板图像块的结构特征;其次,提取待测样本上图像块的结构特征和灰度特征,分别与模板图像块的结构特征和全局灰度均值进行比较,得到最小汉明距离特征图以及灰度均值对比特征图。最后进行特征图的融合与分割。结果表明,本发明综合考虑了规则织物的最小周期的结构特征和灰度均值特征,可以有效的提取出织物的疵点区域,实现对织物的疵点检测。
技术领域
本发明属于纺织品图像处理的技术领域,具体涉及一种织物疵点匹配检测方法。
背景技术
织物是服装、箱包、床上用品、医用布料等日常生活中消费品的基础。织物检测是纺织品生产质量控制的关键部分。目前,大多数面料检测都是由高成本的人工进行视觉检查,但是由于人为失误和眼睛疲劳而不可靠。织物的自动视觉检测(AVI)应用计算机视觉技术,不仅提供了一种高效,低成本和准确的方法来替代劳动力,而且还扩大了检测能力,以涵盖更广泛的不同织物图案,从最简单的最复杂的织物图案都可应用。AVI的目标是在织物织造期间或之后检测和勾画织物表面上任何缺陷的形状和位置。
对于无图案的织物疵点,检测算法主要可分为统计法,频域法,模型法。利用统计学方法可以从图像中提取不同的纹理特征,将背景纹理和疵点通过统计特性的差异区分开来。常见的统计学方法有自相关函数,共生矩阵,数学形态学,分形维数等。
在频域法中,主要是将图像转换到某个频域下,在对图像进行处理。主要有傅里叶变换,小波变换和Gabor滤波器等。这类方法的计算相对复杂,而且参数的优化对结果影响比较大。
一般织物的纹理既包含规律性的成分,又有随机变化的成分,模型法适用于表面纹理随机变化的织物,而统计法和频谱法很难做到。典型的检查算法有马尔科夫随机场,自回归模型。
大部分已被提出的算法都是基于简单纹理的无图案织物疵点检测算法。但是对图案的织物而言,织物不同纹理和图案以及疵点与背景的相似性都会给检测带来极大挑战。
发明内容
为了解决上述的技术问题,本发明提供了一种基于距离匹配函数和感知哈希算法的织物疵点检测方法,实现对规则织物疵点的有效检测与定位,并具有较高的检查精度。
本发明提供的技术方案是:
一种基于距离匹配函数和感知哈希算法的织物疵点检测方法,其步骤如下:
步骤一:采用距离匹配函数从正常规则图像中提取最小纹理周期;
步骤二:构造重复周期的模板,采用感知哈希算法提取模板图像块的结构特征;
步骤三:从待测样本上获取待测图像块,提取待测图像块的结构特征和灰度均值特征;
步骤四:针对每个待测图像块的结构特征,与模板图像块的结构特征一一对比,生成最小汉明距离特征图H;
步骤五:针对每个待测图像块的灰度特征,与待测样本的灰度特征对比,生成灰度均值对比特征图D;
步骤六:融合特征图,利用最大类间方差法对最终的特征图进行分割,定位出疵点区域。
所述采用距离匹配函数从正常规则图像中提取最小纹理周期的方法:用二维变量f(x,y)表示织物图像灰度值,计算二维距离匹配函数:和式中,M,N分别为该图像的宽和高,x,y分别为该图像中像素的行与列;p代表函数的周期,当p为函数f(x,y)的行方向或者列方向的周期时,f(x,y)与f(x,y+p)或f(x+p,y)的差值最小,记最小周期的宽高分别为a、b,后续提取的图像块大小均为最小周期大小。
所述的构造重复模板是指:从正常规则织物图像中,获取宽、高为2a和2b的正常规则图像模板。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江理工大学,未经浙江理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711191878.8/2.html,转载请声明来源钻瓜专利网。