[发明专利]基于邻域相似性的双边全变分图像超分辨率重建方法有效
申请号: | 201810112609.6 | 申请日: | 2018-02-05 |
公开(公告)号: | CN108460723B | 公开(公告)日: | 2021-07-27 |
发明(设计)人: | 赖睿;官俊涛;肖鹤玲;徐昆然;莫一过;李永薛 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华;朱红星 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 邻域 相似性 双边 全变分 图像 分辨率 重建 方法 | ||
本发明公开了一种基于邻域结构相似性双边全变分的图像超分辨率重建方法,主要解决现有技术在图像超分辨率重建过程中细节丢失的问题。其实现方案是:1.获取低分辨率图像序列,并对Y的第一帧图像进行插值,作为第1次迭代的超分辨率重建图像2.计算第t次迭代重建图像的邻域结构相似距离矩阵Wt;3.根据Wt构建目标函数,并求解目标函数的最小化问题,获得第t+1次迭代的重建图像4.计算相邻两次迭代所生成的超分辨率重建图像的欧氏距离;5.重复步骤2‑4,直至相邻两次迭代所生成的超分辨率重建的图像的欧氏距离小于阈值,输出超分辨率重建结果。本发明能有效重建图像中的细节信息,更好的保持结构特性,可用于遥感图像和医学图像处理。
技术领域
本发明属于数字图像处理技术领域,具体涉及一种数字图像超分辨率重建方法,可用于遥感图像和医学图像处理。
背景技术
在成像系统中,由于成像过程中外在的干扰及成像系统自身的不足,最终的图像质量会有一定的退化,分辨率较低,从而丢失了图像中的细节信息,无法满足一些高精度应用的要求。超分辨率重建技术可以有效地提高图像的分辨率,增强图像中的细节信息,现在己经被广泛应用于医学、社会安全、国防等领域。
现存的图像超分辨率重建方法主要有:基于频域的超分辨率迭代重建方法和基于空间域的超分辨率迭代重建方法。空间域方法直接对像素输出进行处理,易于硬件实现,从而获得广泛应用。传统的空间域方法例如全变分法、迭代反射投影法、吉洪诺夫正则化法等,在重建图像的同时会丢失图像的纹理和细节等信息,Fasiu等人将边缘保持特性较好的全变分模型与双边滤波模型结合构建出双边全变分先验约束,取得了更好的超分辨率重建效果(Sina Farsiu,M.Dirk Robinson,Michael Elad et al.,Fast and RobustMultiframe Super Resolution,IEEE Transactions on Image Processing,Vol.13,No.10,2004,pp.1327-1344.)。但该方法中滤波权重仍由单个像素亮度值决定,因而在较强的噪声干扰下,权重误差将导致重建效果下降。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于邻域相似性的双边全变分图像超分辨率重建方法,以获得更高的峰值信噪比和结构相似度,提高图像重建效果。
实现本发明目的的技术方案是:用邻域相似度权取代传统双边滤波中的像素亮度距离权,构建邻域相似性双边全变分项作为先验约束加入迭代回归估计过程中,并使用分裂布雷格曼方法进行求解,得到重建图像,具体步骤包括如下:
(1)获取低分辨率图像序列Y;
(2)使用双线性插值法对低分辨率图像序列Y的第一帧图像进行插值,作为第1次迭代的超分辨率重建图像
(3)计算第t次迭代超分辨率重建图像的结构相似性距离矩阵Wt,t≥2;
(4)根据邻域结构相似性距离矩阵Wt,得到的邻域结构相似性双边全变分正则项
(5)构建由保真项F和邻域结构相似性双边全变分正则项组成的目标函数J:
其中,μ和λ为两个数值不同的规整参数,μ的取值为0.72,λ的取值为0.97。
(6)采用分裂布雷格曼法求解目标函数最小化问题,获得第t+1次迭代的超分辨率重建图像
(7)计算相邻两次迭代超分辨率重建图像的欧氏距离E;
(8)设置收敛阈值tol=0.0005,判断相邻两次图像超分辨率重建图像的欧氏距离E是否小于收敛阈值tol,如果欧氏距离E大于收敛阈值tol,则重复步骤(3)至步骤(7);否则,迭代结束,输出(6)获得的超分辨重建图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810112609.6/2.html,转载请声明来源钻瓜专利网。