[发明专利]一种基于特征金字塔模型的运动模糊图像去模糊方法在审
申请号: | 202110725569.4 | 申请日: | 2021-06-29 |
公开(公告)号: | CN113436104A | 公开(公告)日: | 2021-09-24 |
发明(设计)人: | 高俊山;李敬远;张陶 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T3/40;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 特征 金字塔 模型 运动 模糊 图像 方法 | ||
1.一种基于特征金字塔模型的运动模糊图像去模糊方法,其特征在于,包括以下步骤:
S1:获取多个运动模糊图像和与之相对应的多个清晰图像组成图像对作为训练集,并获取多个待去模糊的运动图像作为测试集;
S2:采用特征金字塔模型对生成对抗网络进行搭建;
S3:设计用于生成对抗网络训练的损失函数;
S4:采用步骤S1获取的训练集和步骤S3设计的损失函数对特征金字塔生成对抗网络进行训练;
S5:将步骤S1获取的测试集输入到步骤S4训练好的网络模型中得到相应的去模糊图像,验证图像质量。
2.根据权利要求1所述的一种基于特征金字塔模型的运动模糊图像去模糊方法,其特征在于,所述步骤S1中训练集与测试集获取方法如下:
S1.1:使用Gopro运动相机拍摄n张不同场景下的清晰图像与模糊图像,组成训练集的图像对;
S1.2:使用Gopro运动相机拍摄0.1n张不同于步骤S1.1场景的清晰图像与模糊图像作为测试集。
3.根据权利要求1所述的一种基于特征金字塔模型的运动模糊图像去模糊方法,其特征在于:所述步骤S2中特征金字塔生成对抗网络搭建方法如下:
S2.1:采用五层由下至上的特征金字塔结构作为生成器的特征提取模块;
S2.2:采用上采样模块根据每层提取的特征生成得到每层的生成图;
S2.3:采用并接模块对每层的生成图进行并接;
S2.4:使用二分类的分类器作为鉴别器模块。
4.根据权利要求3所述方法,其特征在于:所述特征提取模块,包含五层特征金字塔结构,每层由两层卷积核大小为3×3,步长为1的卷积层和步长为2的池化层组成,每层后紧跟着归一化层和RELU激活函数层;所述上采样模块,采用内插值方法,即在原有图像像素的基础上在像素点之间采用合适的插值算法插入新的元素,将原有图像大小扩大一倍;所述并接模块,将特征提取与上采样模块采用卷积核为1×1的卷积层连接,改变特征图通道数,以达到各个水平特征图处理大小相同,将图片并接成一个完整的图像。再采用3×3的卷积核对每个融合结果进行卷积,消除上采样的混叠效应。
5.根据权利要求1所述的一种基于特征金字塔模型的运动模糊图像去模糊方法,其特征在于,所述步骤S3生成对抗网络损失函数如下:
生成器整体损失函数为:
LG=0.5*lp+0.006*lx+0.01*la
其中lp表示均方方差,其函数为:
所述N为数据总量,yi是真实数据,是拟合数据;
其中lx表示感知损失,其函数为:
所述M为特征图的宽,N为特征图的高xi,j表示网络中第i个池化层前的第j个卷积层的特征;
判别器整体损失函数为:
其中x~Pd(X)表示清晰图像x取自于清晰图像集X,Pd(X)表示清晰图像集X的概率分布;y~Pz(Y)表示模糊图像y取自于模糊图像集Y,Pz(Y)表示模糊图像集Y的概率分布;D(x)表示判别器对输入图像x的判别概率,G(z)表示由输入图像经生成器生成的结果图像,Z[·]表示对括号内取期望。
6.根据权利要求1所述的一种基于特征金字塔模型的运动模糊图像去模糊方法,其特征在于:所述步骤S4特征金字塔生成对抗网络进行训练方法如下:
S4.1:将权力要求1步骤S1所获取的训练集输入到权利要求1步骤S2搭建的网络中;
S4.2:生成器通过特征提取、上采样、并接生成所述清晰的生成图像;
S4.3:将生成图像与真实图像输入到判别器中;
S4.4:判别器通过损失函数计算得到判别损失,根据计算的损失更新判别器参数;
S4.5:通过更新的判别器计算生成图像与清晰图像的误差;
S4.6:将误差反向传输给生成器;
S4.7:生成器通过生成器损失函数计算得到生成损失,根据计算的损失更新生成器的参数;
S4.8:重复步骤S4.2到步骤S4.7直到达成训练条件,得到训练完成的生成对抗网络模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110725569.4/1.html,转载请声明来源钻瓜专利网。