[发明专利]一种基于对抗域自适应网络的图像分类方法有效
申请号: | 202110607513.9 | 申请日: | 2021-06-01 |
公开(公告)号: | CN113378904B | 公开(公告)日: | 2022-06-14 |
发明(设计)人: | 贾龙飞;李晶晶;杜哲凯 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 四川鼎韬律师事务所 51332 | 代理人: | 温利平 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 对抗 自适应 网络 图像 分类 方法 | ||
本发明公开了一种基于对抗域自适应网络的图像分类方法,重新定义了对抗损失函数Ladv克服源域和目标域泛化问题,但重新定义抗损失函数是有代价的,仅通过优化新的ADAN目标函数即抗损失函数不能保证源域和目标域分布是接近的,因此,本发明采用最小化额外的发散度即度量损失函数Lmetric来对齐源域和目标域。这样采用对抗性学习和度量学习,一方面,挑战了以往ADAN中的泛化问题,另一方面,保证了在训练过程中使域发散最小化。实验表明,本发明可以很好地适用于无监督的领域自适应任务,提高目标域图像的分类性能(准确率)。
技术领域
本发明属于图像分类技术领域,更为具体地讲,涉及一种基于对抗域自适应网络的图像分类方法。
背景技术
大多数机器学习模型背后的一个共同假设是:源域和目标域具有相同的数据分布。然而,在现实应用中并不能保证这一共同假设,这可能会导致对目标域数据分类的性能急剧下降。因此,域自适应被提出,通过降低域差异来解决这一问题。最新的域自适应方法是基于对抗性学习的,这些方法通常被称为对抗域自适应网络(Adversarial DomainAdaptation Networks,简称ADAN)。
图1是现有基于对抗域自适应网络的图像分类方法的原理示意图。
ADAN类似于生成对抗网络(GANS),它以对抗方式训练一个特征表示网络F(类似于生成对抗网络中的生成器)和一个域判别器D。具体来讲,在基于对抗域自适应网络的图像分类方法中,源域以及目标域的图像分别输入到特征表示网络F进行特征提取,得到图像特征,然后分别送入到域判别器D,一旦域判别器D不能区分图像特征是来自源域还是来自目标域,则认为学习到的图像特征是域不变的。这样通过源域图像对特征表示网络F、分类器C进行训练,训练好的特征表示网络F、分类器C可以适用于目标域图像的分类。
在域自适应中,源域和目标域具有不同的数据分布,域自适应的目标是学习到一种新的特征表示,使源域和目标域可以很好地对齐。ADAN利用了对抗性学习的思想,它假设只要域判别器被混淆,这两个域就是对齐的。然而,最近的进展表明,这样的假设可能并不可靠。然而,ADAN继承了GANS的缺点,即使训练成功,学习到的分布也可能与预期的分布相去甚远,这在GANS中被称为泛化问题。因此,即使域判别器被成功混淆,也不能保证学习的表示是域不变的,也就是说,训练好的特征表示网络F、分类器C不能很好地对目标域图像进行良好的分类,分类性能有待提高。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于对抗域自适应网络的图像分类方法,克服源域和目标域泛化,将源域和目标域对齐,提高目标域图像的分类性能(准确率)。
为实现上述发明目的,本发明基于对抗域自适应网络的图像分类方法,其特征在于,包括以下步骤:
(1)、构建用于图像分类的对抗域自适应网络
针对源域、目标域中的图像,构建特征表示网络F、域判别器D以及分类器C;
其中,特征表示网络F用于对源域中的图像xs进行特征提取,得到源域图像特征F(xs),对目标域中的图像xt进行特征提取,得到目标域图像特征F(xt),域判别器D用于对源域图像特征F(xs)以及目标域图像特征F(xt)进行判别,得到属于源域的概率D(F(xs))以及D(F(xt)),分类器C用于对源域图像特征F(xs)进行分类,得到图像分类概率pi(softmax(F(xs)),i=1,2,…I,对目标域图像特征F(xt) 进行分类,得到图像分类概率pi(softmax(F(xt)),i=1,2,…I;
(2)、训练对抗域自适应网络
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110607513.9/2.html,转载请声明来源钻瓜专利网。