[发明专利]通过无监督域适应训练目标域分类模型的方法有效
申请号: | 201911045261.4 | 申请日: | 2019-10-30 |
公开(公告)号: | CN110880019B | 公开(公告)日: | 2022-07-12 |
发明(设计)人: | 张勇东;张天柱;钱柄乔;李岩;邓旭冉 | 申请(专利权)人: | 北京中科研究院;中国科学技术大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/46;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京凯特来知识产权代理有限公司 11260 | 代理人: | 郑立明;郑哲 |
地址: | 100193 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 通过 监督 适应 训练 目标 分类 模型 方法 | ||
本发明公开了一种通过无监督域适应训练目标域分类模型的方法,包括:对于源域和目标域输入的批图像数据,通过标准卷积网络来提取特征,然后结合初始化设定的质心特征构建对应于源域和目标域的实例图;实例图中的节点矩阵依次通过源域分类器与图卷积网络后,生成对应于源域和目标域的类别质心特征;使用类别质心对齐机制,约束图卷积网络每层中来自不同域的类别质心,使不同域的类别质心随着迭代训练而逐渐靠近;并且,使用质心指导的对抗性对齐机制,利用所有类别自动生成的质心作为域全局统计信息指导每批图像数据参与对抗训练;通过迭代训练最终得到在目标域有效的分类模型。上述方法具有很好的泛化性,且训练好的分类模型分类准确较高。
技术领域
本发明涉及图像分类技术领域,尤其涉及一种通过无监督域适应训练目标域分类模型的方法。
背景技术
无监督域适应能利用现有的源域带标签数据和网络模型以及相关的目标域无标签数据学习得到适用于目标域数据分类的网络模型。
传统的无监督域适应方法通常利用相关距离度量等措施去对齐深层网络输出的源域和目标域的数据分布。近年来许多对抗性域适应的方法也被提出,并取得了较为显著的成果,这些方法大多是基于生成对抗网络。主要做法是训练鉴别器鉴别采样特征是来自于源域还是目标域,同时训练特征提取器欺骗鉴别器,以此使得源域和目标域特征分布对齐,无法区分。
这些方法大多侧重于测量域级别上的域差异,而不区分来自两个域的样本是否根据所属的类别进行对齐。即便全局域统计数据完全混淆,源域和目标域之间的差距也不一定被减少,甚至还会将不同类别的样本混合到一起,因此,分类效果还有待提高。
发明内容
本发明的目的是提供一种通过无监督域适应训练目标域分类模型的方法,具有很好的泛化性,且训练好的分类模型分类准确较高。
本发明的目的是通过以下技术方案实现的:
一种通过无监督域适应训练目标域分类模型的方法,包括:
对于源域和目标域输入的批图像数据,通过标准卷积网络来提取图像特征,然后结合初始化设定的质心特征构建对应于源域和目标域的实例图;将实例图中的节点矩阵依次通过源域分类器与图卷积网络后,更新对应于源域和目标域的类别质心特征;
使用类别质心特征对齐机制,约束图卷积网络每层中来自不同域的类别质心特征,使不同域的类别质心特征随着迭代训练而逐渐靠近;
并且,使用质心指导的对抗性对齐机制,利用所有类别自动生成的质心特征作为域全局统计信息指导每批图像数据参与对抗训练;
通过迭代训练最终得到在目标域有效的分类模型。
由上述本发明提供的技术方案可以看出,能通过端到端的方式训练网络自动学习到类别的质心而不依赖特定人类先验知识,因此具有更好的泛化性;该方法在多个数据集上得到了平均1~2%的分类准确率的提升,且模型分类准确率收敛速度更快。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种通过无监督域适应训练目标域分类模型的方法的框架图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京中科研究院;中国科学技术大学,未经北京中科研究院;中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911045261.4/2.html,转载请声明来源钻瓜专利网。