[发明专利]基于稀疏自编码网络与极速学习的图像超分辨重建方法有效
申请号: | 201710589217.4 | 申请日: | 2017-07-19 |
公开(公告)号: | CN107392855B | 公开(公告)日: | 2021-10-22 |
发明(设计)人: | 王敏;王勇 | 申请(专利权)人: | 苏州闻捷传感技术有限公司 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06K9/62 |
代理公司: | 苏州翔远专利代理事务所(普通合伙) 32251 | 代理人: | 刘计成 |
地址: | 215500 江苏省苏州市常熟市高*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 稀疏 编码 网络 学习 图像 分辨 重建 方法 | ||
本发明公开了一种基于稀疏自编码网络与极速学习的图像超分辨重建方法,解决了特征提取不准确及特征提取与重建步骤独自进行而导致恢复不准确的问题。主要步骤为:输入低分辨率测试图像,对输入的低分辨率测试图像通过重叠的方式进行分块,构造低分辨率测试图像块;对于每一个低分辨率图像块经过层级的稀疏自编码器提取稀疏特征;将稀疏特征通过预先学习得到的极速学习机投影到高分辨率像素空间得到高分辨率图像块;最后将高分辨率图像块聚合得到最终的高分辨率图像,完成图像超分辨率重建。本发明采用多层稀疏自编码网络学习稀疏特征,将特征提取与重建集成在一个统一的网络框架中,有效提高了重建图像质量并改善细节信息,适用于各种自然图像的超分辨率重建。
技术领域
本发明属于图像处理技术领域,主要涉及图像超分辨重建,具体是一种基于稀疏自编码网络与极速学习的图像超分辨重建方法,该方法可用于各类自然图像和字符图像的超分辨率重建。
背景技术
图像超分辨率重建技术能够利用信号处理的手段从低分辨率的图像中恢复出高分辨率的图像,在许多领域取得了广泛的应用。传统的基于重构的超分辨方法大多利用的是图像的边缘特性、像素的非负性和局部平滑特性等先验知识构造约束条件,对图像自身的先验信息利用的不足,当放大系数较大时恢复出来的结果图像过于平滑。Freeman等人提出了一种基于学习的方法,利用马尔科夫网络来学习训练库中对应的高、低分辨率图像块之间的关系来预测输入低分辨率图像的细节信息。Chang等人提出了邻域嵌入(NeighborEmbedding)方法,利用局部线性嵌入的思想,从训练库中选取输入样本的多个近邻,然后根据误差最小的原则得到重建权重,通过对这些近邻块进行线性组合得到重建结果。但是这些方法特征提取的不够准确,往往找不到准确的近邻,而且特征提取与重建步骤独自进行而导致重建不准确,重建图像的质量一般。
发明内容
本发明的目的在于克服上述已有技术的缺点,提出一种基于稀疏自编码网络与极速学习的图像超分辨重建方法,改善特征提取的过程,将特征提取和重建集成在一个统一的网络框架中,提高重建图像的效率和质量。
本发明是一种基于稀疏自编码网络与极速学习的图像超分辨重建方法,其特征在于,包括有如下步骤:
步骤1:输入训练样例图像对,用重叠的方式将低分辨率训练样例图像分割为大小为的低分辨率训练样例图像块并拉成向量用相同的方式将高分辨率训练样例图像分割为与低分辨率训练样例图像块相对应的大小为的高分辨率训练样例图像块并拉成向量其中n表示低分辨率训练样例图像块向量的维度,N表示高分辨率和低分辨率训练样例图像块的规模,s表示上采样倍数;
步骤2:将低分辨率训练样例图像块向量输入到稀疏自编码网络中,得到第一层输出稀疏权重矩阵W1,将低分辨率训练样例图像向量与权值矩阵W1的转置矩阵W1T相乘并通过非线性函数g得到第一层稀疏特征其中
步骤3:将第一层稀疏特征输入到稀疏自编码网络中,得到第二层输出稀疏权重矩阵W2,将第一层稀疏特征与权值矩阵W2的转置矩阵相乘并通过非线性函数g得到第二层稀疏特征其中
步骤4:以第二层稀疏特征作为输入,对应的高分辨率训练样例图像块向量为输出训练极速学习机网络,得到极速学习机输出权重W3o,其中极速学习机的随机初始化权重为W3i;
步骤5:输入待超分辨率重建的低分辨率测试图像X,按重叠的方式分割成大小为的图像块并拉成向量形成低分辨率测试图像向量
步骤6:将低分辨率测试图像向量输入到第一层稀疏自编码器得到第一层稀疏特征其中
步骤7:将第一层稀疏特征输入第二层稀疏自编码器得到第二层稀疏特征其中
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州闻捷传感技术有限公司,未经苏州闻捷传感技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710589217.4/2.html,转载请声明来源钻瓜专利网。