[发明专利]基于深度学习及多尺度残差稠密模块的单幅图像超分辨率重建方法在审
| 申请号: | 202010368480.2 | 申请日: | 2020-04-30 |
| 公开(公告)号: | CN111640060A | 公开(公告)日: | 2020-09-08 |
| 发明(设计)人: | 孙权森;崔和涛 | 申请(专利权)人: | 南京理工大学 |
| 主分类号: | G06T3/40 | 分类号: | G06T3/40;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 南京理工大学专利中心 32203 | 代理人: | 王玮 |
| 地址: | 210094 *** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 深度 学习 尺度 稠密 模块 单幅 图像 分辨率 重建 方法 | ||
1.一种基于深度学习及多尺度残差稠密模块的单幅图像超分辨率重建方法,其特征在于包括以下步骤:
步骤1、设计和实现网络模型
步骤2、初始化网络模型参数
步骤3、使用训练集作为输入对网络进行训练,其中每一次训练主要包含三个部分:a.前向计算得到重建结果,b.计算损失函数,c.后向传播更新参数;
步骤4、使用测试集作为输入重建高分辨率图像,其中通过前向计算得到重建的高分辨率图像。
2.根据权利要求1所述的基于深度学习及多尺度残差稠密模块的单幅图像超分辨率重建方法,其特征在于:步骤1中所述设计和实现网络模型的具体方法为:
提出多尺度残差稠密模块,对于输入的特征图Min,通过构建双路网络,分别使用5x5卷积核和3x3卷积核提取不同尺度的特征S1和P1,再对Min、S1和P1进行拼接获得拼接特征图C1;通过双路特征提取和特征拼接得到S2P2,再对Min、S1、P1、S2和P2进行拼接获得拼接特征图C2;然后对于拼接特征C2,使用1x1卷积对特征进行融合,并且降低特征通道数,获得局部融合之后的输出O;最后,在该模块中引入残差学习,形式上,将多尺度剩余块描述为:
Mout=Min+O
残差稠密模块学习的是网络输出Mout和网络输入Min的残差O,最终,模块输出为Mout;
基于残差稠密块设计超分辨率重建网络,超分辨率重建过程分为:特征信息提取,非线性映射和重建三个步骤;网络输入为低分辨率图像ILR,通道数为3;在特征提取部分,网络首先使用两个3x3的卷积核对ILR提取特征信息;在非线性映射部分,引入多尺度残差稠密模块,将所有的多尺度残差稠密模块的输出进行连接,随后通过1x1卷积对所有特征进行融合,并且由于多个多尺度残差稠密模块的连接,使得特征图的通道数增大;此外,使用残差模块学习全局残差,对网络训练进行加速;最后在重建部分,先使用亚像素卷积对图片进行放大,再使用一个卷积层对图片进行重建,获得重建的高分辨率图像IHR;
对于网络的损失函数,采用均方误差损失函数,即L2损失函数,对于给定的原始高分辨率图像Iori、低分辨率图像ILR和重建的高分辨率图像IHR,其损失函数如下所示:
3.根据权利要求1所述的基于深度学习及多尺度残差稠密模块的单幅图像超分辨率重建方法,其特征在于:步骤3中所述用训练集作为输入对网络进行训练的具体方法为:
在网络训练的每一步中:首先,根据网络输入ILR,经过前向计算得到IHR,其次通过损失函数公式计算IHR与Iori之间的损失值,最后通过链式求导反向传播依次更新网络参数;经过多轮训练,使得网络重建的IHR与Iori具有一个满足要求的很小的损失值,训练完成,保存模型参数。
4.根据权利要求1所述的基于深度学习及多尺度残差稠密模块的单幅图像超分辨率重建方法,其特征在于:步骤4中所述使用测试集作为输入重建高分辨率图像的具体方法为:
在网络测试中,通过输入测试集的低分辨率图像,经过网络的前向计算,得到重建的高分辨率图像,即完成超分辨率重建。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010368480.2/1.html,转载请声明来源钻瓜专利网。





