[发明专利]一种基于对抗域自适应网络的图像分类方法有效
申请号: | 202110607513.9 | 申请日: | 2021-06-01 |
公开(公告)号: | CN113378904B | 公开(公告)日: | 2022-06-14 |
发明(设计)人: | 贾龙飞;李晶晶;杜哲凯 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 四川鼎韬律师事务所 51332 | 代理人: | 温利平 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 对抗 自适应 网络 图像 分类 方法 | ||
1.一种基于对抗域自适应网络的图像分类方法,其特征在于,包括以下步骤:
(1)、构建用于图像分类的对抗域自适应网络
针对源域、目标域中的图像,构建特征表示网络F、域判别器D以及分类器C;
其中,特征表示网络F用于对源域中的图像xs进行特征提取,得到源域图像特征F(xs),对目标域中的图像xt进行特征提取,得到目标域图像特征F(xt),域判别器D用于对源域图像特征F(xs)以及目标域图像特征F(xt)进行判别,得到属于源域的概率D(F(xs))以及D(F(xt)),分类器C用于对源域图像特征F(xs)进行分类,得到图像分类概率pi(softmax(F(xs)),i=1,2,…I,对目标域图像特征F(xt)进行分类,得到图像分类概率pi(softmax(F(xt)),i=1,2,…I;
(2)、训练对抗域自适应网络
2.1)、从源域中提取一批M张图像,表示为xs_1,xs_2,...,xs_M,从目标域中提取一批N张图像,表示为xt_1,xt_2,...,xt_N,分别输入到特征表示网络F,得到M个源域图像特征:
F(xs_1),F(xs_2),...,F(xs_M);
以及N个目标域图像特征:
F(xt_1),F(xt_2),...,F(xt_N);
M个源域图像特征F(xs_1),F(xs_2),...,F(xs_M)以及N个目标域图像特征F(xt_1),F(xt_2),...,F(xt_N)分别输入到域判别器D中,得到属于源域的概率:
D(F(xs_1)),D(F(xs_2)),...,D(F(xs_M))
D(F(xt_1)),D(F(xt_2)),...,D(F(xt_N))
M个源域图像特征F(xs_1),F(xs_2),...,F(xs_M)分别输入到分类器C,得到图像分类概率:
pi(softmax(F(xs_1))),pi(softmax(F(xs_2))),...,pi(softmax(F(xs_M))),i=1,2,...,I;
其中,I为图像的类别数量,i为图像的类别号;
2.2)、计算训练的整体目标函数L:
L=minFmaxDLadv+λminFLmetric+βminCLcls
其中:
Lmetric=E{k(F(xs_m),F(xs_m'))}m=1,2,...,M,m'=1,2,...,M,m≠m′+E{k(F(xt_n),F(xt_n'))}n=1,2,...,N,n'=1,2,...,N,n≠n′-2E{k(F(xs_m),F(xt_n))}m=1,2,...,M,n=1,2,...,N
其中,minFmaxDLadv的含义为:通过更新特征表示网络F的网络参数,使得对抗损失函数Ladv最小,更新判别器D的网络参数使得对抗损失函数Ladv最大,形成对抗训练,minFLmetric的含义为:通过更新特征表示网络F的网络参数,使得度量损失函数Lmetric最小,minCLcls的含义为:通过更新分类器C的网络参数,使得交叉熵损失函数Lcls最小,λ、β为大于0的平衡参数;
其中,E表示求{}中所有元素值的期望值,k(,)为高斯核函数,为指示函数,当i=ys_m时为1,其余0,ys_m为源域图像xs_m的真实类别即标签值,pi(softmax(F(xs_m)))表示分类器输出的源域图像特征F(xs_m)属于第i类的概率;
(3)、图像分类
将来自源域或目标域的未知类别的图像输入到特征表示网络F进行特征提取,得到图像特征,然后将图像特征送入分类器C中,得到属于各个类别的概率,概率最大值对应的类别为输入图像的类别。
2.根据权利要求1所示的基于对抗域自适应网络的图像分类方法,其特征在于,所述特征表示网络F为残差网络ResNet-50。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110607513.9/1.html,转载请声明来源钻瓜专利网。