[发明专利]一种生成对抗网络的稳定训练方法有效
申请号: | 201910287274.6 | 申请日: | 2019-04-10 |
公开(公告)号: | CN110070174B | 公开(公告)日: | 2020-11-27 |
发明(设计)人: | 阮仕海;王晓晶;张伟;洪炜冬;许清泉 | 申请(专利权)人: | 厦门美图之家科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京思睿峰知识产权代理有限公司 11396 | 代理人: | 谢建云;张赞 |
地址: | 361008 福建省厦门*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 生成 对抗 网络 稳定 训练 方法 | ||
本发明公开了一种生成对抗网络的稳定训练方法,包括:将训练图像输入自编码器中进行处理,得到第一生成图像;基于训练图像与第一生成图像之间的损失值,训练得到预训练的生成器;基于训练图像和经预训练的生成器生成的第二生成图像,对预训练的生成器和判别器进行训练,并基于训练结束时对应的生成器和判别器,得到生成对抗网络。本方案适用范围广,能够应用于任意网络结构和任意损失函数的生成对抗网络的训练,能够提高生成对抗网络训练的稳定性,避免模式崩溃。
技术领域
本发明涉及深度学习技术领域,尤其涉及一种生成对抗网络的稳定训练方法、计算设备及存储介质。
背景技术
生成对抗网络是近年来深度学习领域一项非常热门的技术,其特点在于可以学习数据的分布,生成更加接近真实图像的样本。
生成对抗网络由生成器和判别器组成,二者是对抗的关系。判别器学习分辨真实样本与生成器生成的假样本,而生成器则使判别器认为自己生成的样本是真实样本。随着训练的进行,判别器的分辨能力越来越强,生成器生成的样本也越来越接近真实样本。但是生成对抗网络的训练自由度太大,生成器和判别器很容易陷入不正常的对抗状态,发生模式崩溃,导致生成图像多样性不足,严重模式崩溃时生成的所有图片都一样。
目前存在一些生成对抗网络的训练方法,例如DCGAN(深度卷积生成对抗网络)从工程实践中调整出一个比较稳定的网络结构,但是这样局限性太大;另外,LSGAN(最小二乘法生成对抗网络)、WGAN(Wasserstein距离生成对抗网络)、WGAN-GP(改进的沃瑟斯坦距离生成对抗网络)等方法改进了原始生成对抗网络使用的损失函数,其中前二者对网络结构依然不够鲁棒,而后者训练速度太慢。
因此,需要一种稳定训练生成对抗网络的方法,能够适用于不同的网络结构,提高生成对抗网络训练的稳定性。
发明内容
为此,本发明提供了一种生成对抗网络的稳定训练方法,以力图解决或者至少缓解上面存在的至少一个问题。
根据本发明的一个方面,提供了一种生成对抗网络的稳定训练方法,该方法适于在计算设备中执行,包括:首先,将训练图像输入自编码器中进行处理,得到第一生成图像。接着,基于训练图像与第一生成图像之间的损失值,训练得到预训练的生成器。最后,基于训练图像和经预训练的生成器生成的第二生成图像,对预训练的生成器和判别器进行训练,并基于训练结束时对应的生成器和判别器,得到生成对抗网络。
可选地,在上述方法中,自编码器包括相互耦接的编码器和解码器,首先将训练图像输入编码器中进行编码得到隐变量。然后,将隐变量输入解码器中解码得到第一生成图像。
可选地,在上述方法中,首先,计算训练图像与第一生成图像之间的第一损失值。然后,将训练图像和第一生成图像分别输入VGG网络中,得到至少一个训练图像的特征图和第一生成图像的特征图。随后,计算训练图像的特征图与对应VGG网络层的第一生成图像的特征图之间的第二损失值。最后,基于第一损失值和第二损失值的加权和,调整自编码器的权重参数,以将训练后的解码器作为预训练的生成器。
可选地,在上述方法中,基于L1范数损失函数计算第一损失值,基于L2范数损失函数计算第二损失值。
可选地,在上述方法中,首先,将随机噪声向量输入预训练的生成器,得到第二生成图像。然后,将训练图像和第二生成图像分别输入判别器中,以输出训练图像的判别值和第二生成图像的判别值,并基于训练图像的判别值和第二生成图像的判别值,利用判别损失函数计算第三损失值;以及基于第三损失值,更新预训练的生成器和判别器的网络参数。重复得到第二生成图像、计算第三损失值和更新网络参数的步骤,直到满足预定条件,训练结束。
可选地,在上述方法中,基于下述公式计算判别损失函数的损失值:
其中,D(x)为训练图像的判别值,为第二生成图像的判别值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门美图之家科技有限公司,未经厦门美图之家科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910287274.6/2.html,转载请声明来源钻瓜专利网。