[发明专利]一种主动学习与深度学习相结合的铝材表面缺陷检测方法在审
申请号: | 201910050571.9 | 申请日: | 2019-01-19 |
公开(公告)号: | CN109886925A | 公开(公告)日: | 2019-06-14 |
发明(设计)人: | 王征;宋宗垚;孙美君;张子剑 | 申请(专利权)人: | 天津大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 李林娟 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 标注 样本 调整图像 主动学习 神经网络结构 铝材表面 缺陷检测 排序 饱和度 权重比例关系 递增 评价标准 数据增强 网络模型 训练数据 训练样本 预测结果 特征图 信息熵 算法 图像 学习 | ||
本发明公开了一种主动学习与深度学习相结合的铝材表面缺陷检测方法,包括:通过随机调整图像饱和度、调整图像亮度、调整图像对比度、以及图像的随机旋转对训练集中的数据进行数据增强;采用Weighted‑Entropy评价标准进行主动学习,将待标注样本按照Weighted‑Entropy值以递增的顺序进行排序,选择出最高的K个样本进行标注,将其加入训练集中,作为训练样本;同时采用伪标注算法,将待标注样本按照Entropy(信息熵)以递增的顺序进行排序,选择出最低的H个样本,并利用模型的预测结果作为伪标注,将其作为下一次训练的额外的临时训练数据。采用SEResNet‑152神经网络结构,该神经网络结构以ResNet‑152网络模型为基础,在每个Residual模块之后加入了SE模块,用于计算特征图的通道与通道之间的权重比例关系。
技术领域
本发明涉及铝材表面缺陷检测领域,尤其涉及一种主动学习与深度学习相结合的铝材表面缺陷检测方法。
背景技术
随着深度学习的火热发展和科技的进步,深度学习算法在计算机视觉领域取得了重大的进步,并且已经广泛应用于人脸识别、车辆识别、道路状况识别等众多领域中。深度学习算法可以利用庞大的训练数据(如ImageNet等)对算法模型进行大量的训练,从而利用训练好的模型轻松的完成图像分类、场景分类以及图像分割等任务,并且达到一个优秀的准确率。但是深度学习方法十分依赖ImageNet这样庞大且高质量的数据集,而现实情况中的很多领域中没有这样高质量的大型数据集,并且数据标注成本十分昂贵,例如在工业探伤领域。在这些领域中数据的标注技术难度大,需要多名从业多年的专家同时给出标注才能保证标注的准确性,这就带来了很高的时间成本和经济成本。因此,在这些领域中很难获取到规模庞大且高质量的数据集。
深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。随着深度学习的不断发展,越来越多的更加复杂分类效果更好的深度神经网络模型不断被人们提出。2015年何凯明在《Deep Residual Learning forImage Recognition》中首次提出了ResNet残差网络模型,在该模型提出了Residual结构解决了增加深度带来的副作用(退化问题),并且使得深度神经网络的训练更加容易。2017年Jie Hu等人在《Squeeze-and-Excitation Networks》中提出了SE(压缩-提取)块,首次考虑到了图像特征的通道之间的关系,并且通过计算通道之间的权重比例得到各个通道对于特征提取和分类效果的重要程度,在提升了模型分类准确率的同时也减少了模型训练时的计算量,提升了模型的训练效率。
主动学习又称查询学习,或者有时在统计学文献中称为最佳实验设计,他是机器学习的一个子领域。主动学习的关键假设是,如果模型可以对数据保持“好奇”,并且会主动选择他想要学习的数据。主动学习试图通过向专家或者标注者请求数据所对应的标注的形式来克服标注的问题。以这种形式,主动学习方法旨在使用尽可能少的标注样本,并且训练高精度的模型,从而最小化获得样本标注的成本。
其具体流程如图1所示。首先使用少量的带有标注的数据集对机器学习模型进行训练,然后利用初步训练得到的模型以及选择样本的评价标准对未标注池U中的未标注样本进行选择,选择出最具有价值的K个样本加入已标注数据池L中。在开始下一次的循环,直至达到预先设定好的循环终止条件,比如时间耗尽或者资源耗尽等。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910050571.9/2.html,转载请声明来源钻瓜专利网。