[发明专利]一种基于特征融合的多风格图像生成方法有效
| 申请号: | 202110635370.2 | 申请日: | 2021-06-02 |
| 公开(公告)号: | CN113255813B | 公开(公告)日: | 2022-12-02 |
| 发明(设计)人: | 余月;李本源;李能力 | 申请(专利权)人: | 北京理工大学 |
| 主分类号: | G06V10/80 | 分类号: | G06V10/80;G06V10/774;G06V10/82;G06V10/42;G06N3/04;G06N3/08 |
| 代理公司: | 北京正阳理工知识产权代理事务所(普通合伙) 11639 | 代理人: | 邬晓楠 |
| 地址: | 100081 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 特征 融合 风格 图像 生成 方法 | ||
1.一种基于特征融合的多风格图像生成方法,其特征在于:包括如下步骤,
步骤1:将语义分割图输入内容特征提取网络,提取语义图中的内容特征向量;
步骤2:将风格图输入风格特征提取网络,提取风格图中的风格特征向量;
步骤3:将提取出的内容特征向量fc和风格特征向量fs输入内容风格特征融合网络进行特征融合,得到特征融合后的融合特征向量fcs;
步骤4:构建由生成器和判别器组成的生成对抗网络,并通过设计损失函数在数据集上训练生成对抗网络,即训练得到损失函数最小化的生成对抗网络;
内容特征提取网络、风格特征提取网络和内容风格特征融合网络三部分网络组成的从语义图生成风格图像的网络框架,通过内容特征提取网络、风格特征提取网络分别提取内容特征和风格特征,还通过内容风格特征融合网络将前两个网络提取的特征进行融合,用来生成具有语义图内容和风格图风格的多风格图像;
步骤4中所述的生成器是内容特征提取网络、风格特征提取网络和内容风格特征融合网络三部分网络组成的从语义图生成风格图像的网络;判别器是由全局判别器D1和局部判别器D2组成的多级判别器,具有相同的网络结构,但是运行在不同的图像比例上;
步骤4中设计的损失函数为:
其中,λ1,λ2,λ3,λ4,λ5为可设定参数,G是生成器,D1是局部判别器,D2是全局判别器,x是输入的语义图,t是输入的风格图,y是生成的多风格图像;
为计算内容差异的感知损失,其表达式为:
F(i)表示VGG16网络的第i个激活前层特征提取器,而wi是第i层的自适应权重,特征的层数越深,加权的参数就越大;
是对抗损失,其表达式为:
是特征匹配损失,其表达式为:
其中T表示判别器Dk的网络层数,Ni表示每层的元素个数;
为计算风格差异的上下文损失,其表达式为:
其中,CX(φl(x),φl(t))是语义图x和风格图t的第l层VGG16特征的余弦相似度;
为总变分损失,其表达式为:
其中,i和j是图像中像素的坐标值,N是图像的像素范围大小;
步骤5:利用步骤4训练得到损失函数最小化的生成器,此时,步骤3得到的风格内容特征融合向量fcs成为具有语义图内容和风格图风格的多风格图像t,即基于特征融合实现多风格图像生成。
2.如权利要求1所述的一种基于特征融合的多风格图像生成方法,其特征在于:还包括步骤6:将步骤5生成的具有语义图内容和风格图风格的多风格图像,应用于吸引注意力的场景,解决相关工程技术问题。
3.如权利要求2所述的一种基于特征融合的多风格图像生成方法,其特征在于:步骤6所述相关工程技术问题包括创意广告设计、游戏场景设计和教学场景图像设计等实际问题。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110635370.2/1.html,转载请声明来源钻瓜专利网。





