[发明专利]基于直推式半监督深度学习的图像分类方法有效
| 申请号: | 201810713131.2 | 申请日: | 2018-06-29 |
| 公开(公告)号: | CN109034205B | 公开(公告)日: | 2021-02-02 |
| 发明(设计)人: | 张玥;龚怡宏;石伟伟;程德;陶小语 | 申请(专利权)人: | 西安交通大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 徐文权 |
| 地址: | 710049 陕*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 直推式半 监督 深度 学习 图像 分类 方法 | ||
本发明一种基于直推式半监督深度学习的图像分类方法,包括:准备半监督图像数据集,将训练数据划分为训练数据集和验证数据集;训练数据集中其中一部分数据为有标签的数据,另一部分为无标签的数据,验证数据集中为有标签的数据;在有标签的训练数据集上,训练通用的深度神经网络图像分类模型,当训练的模型在验证数据集上达到预期的精度,保存网络模型参数;搭建基于Min‑Max准则的直推式半监督深度卷积神经网络模型,同时使用训练数据集中有标签的数据和无标签的数据循环训练模型,当循环次数达到最大循环次数,保存网络模型参数;使用训练好的模型计算测试图像的标签或测试数据集的识别精度。本发明提出的TSSDL算法,具有很好的可移植性。
技术领域
本发明属于计算机视觉图像分类技术领域,具体涉及一种基于Min-Max准则的直推式半监督深度学习的图像分类方法。
背景技术
迄今为止,深度卷积神经网络已经在许多计算机视觉应用中展示了高水准的性能,如图像分类、物体检测、人脸识别和图像转换等。包含数百万个标注图像的大规模训练数据集,是驱动深度卷积神经网络获得成功的重要因素之一。然而,手动标注创建一个大规模、高质量的训练集,是非常耗时、昂贵或甚至难以完成的(例如图像语义分割的训练集)。与此同时,可以很容易地通过网络爬虫和搜索引擎从互联网上获取海量未标记的图像。因此,近年来越来越多的研究人员开始研究如何利用标记数据和未标记数据,使用半监督学习(SSL)方法训练深度卷积神经网络。半监督学习的研究工作在极大的降低训练高性能精度的深度卷积神经网络的成本上有很大的潜力。
传统的SSL方法大多基于标签传播算法,即通过度量训练样本之间的相似性将有标签样本的标签传播到相似度高的无标签样本。另一类研究工作被称为直推式半监督学习(TSSL),这类方法将无标签样本的标签视为变量,通过迭代训练过程确定其类别。在训练过程结束时,同时使用有标签和无标签的训练样本训练分类器。由于在训练过程中使用了额外的无标签样本,使用SSL和TSSL方法训练得到的分类器通常比使用相同有标签训练样本全监督训练得到的分类器效果更好。
然而,传统的SSL和TSSL存在两个共同的问题。首先,这两类方法通常在训练过程的最初阶段,就需要高质量的特征描述子来度量训练样本之间的相似度。由于深度卷积神经网络模型在训练初始阶段输出的特征质量较差,随着训练过程推进特征质量逐渐提高,因此很难将这两类方法与深度卷积神经网络的训练相结合。其次,传统的SSL和TSSL方法平等地对待每个未标记的样本,不能合理的处理奇异样本和不确定的数据样本,影响模型训练的稳定性和效果。这个问题在深度卷积神经网络训练中影响更明显,因为网络模型训练初始阶段产生的特征质量较差且不稳定,可能会误导模型训练到错误的方向。
发明内容
本发明的目的在于针对现有技术的不足,提供了一种基于直推式半监督深度学习的图像分类方法。
为达到上述目的,本发明采用如下技术方案:
基于直推式半监督深度学习的图像分类方法,包括以下步骤:
1)准备半监督图像数据集,将训练数据划分为训练数据集和验证数据集;训练数据集中其中一部分数据为有标签的数据,另一部分为无标签的数据,验证数据集中为有标签的数据;
2)在有标签的训练数据集上,训练通用的深度神经网络图像分类模型,当训练的模型在验证数据集上达到预期的精度,保存网络模型参数;
3)搭建基于Min-Max准则的直推式半监督深度卷积神经网络模型,同时使用训练数据集中有标签的数据和无标签的数据循环训练模型,当循环次数达到最大循环次数,保存网络模型参数;
4)使用训练好的模型计算测试图像的标签或测试数据集的识别精度。
本发明进一步的改进在于,步骤2)的具体实现方法如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810713131.2/2.html,转载请声明来源钻瓜专利网。





