[发明专利]一种基于多尺度稠密连接网络的图像去雾方法有效
申请号: | 201810361296.8 | 申请日: | 2018-04-20 |
公开(公告)号: | CN108564549B | 公开(公告)日: | 2022-04-05 |
发明(设计)人: | 刘文哲;李根;童同;高钦泉 | 申请(专利权)人: | 福建帝视信息科技有限公司 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T5/40;G06N3/04;G06N3/08 |
代理公司: | 福州君诚知识产权代理有限公司 35211 | 代理人: | 戴雨君 |
地址: | 350000 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 尺度 稠密 连接 网络 图像 方法 | ||
本发明公开一种基于多尺度稠密连接网络的图像去雾方法,将具有不同程度的雾的图像重建成较为清晰的图像,极大的提高了图像的质量与视觉感受。首次提出自适应直方图均衡化的方式提高图像的对比度的图像预处理,显著提高了去雾效果;采用多尺度稠密连接卷积神经网络能够描述不同尺度雾的特征,并且有效的结合其特征,达到最有效的去雾效果;提出了基于Retinex去雾问题的公式,使得端对端的深度学习去雾更加简洁有效;本发明和其他基于深度学习的去雾算法相比。本发明不但极大地减少了模型参数数量,而且可以在极少的训练数据的情况下,也达到理想的去雾效果。
技术领域
本发明涉及图像增强领域,尤其涉及一种基于多尺度稠密连接网络的图像去雾方法。
背景技术
雾是由于微小的尘埃和水汽颗粒在干燥的条件下聚集而形成的一种天气现象。雾,霾,烟等浑浊介质会吸收大气光和造成大气光的散射,这导致在此天气下采集的户外场景的图像退化。通常,退化的图像会失去对比度和色彩保真度。
经过某种散射媒介的光线,在原方向上的光强会逐步减弱,同时由于能量守恒定律,减弱的光强会散射到其他方向上。此外,散射所损失的能量取决于其到摄像机的距离。基于这种物理现象,人们常用基于大气散射的物理模型来描述有雾的图像。有雾的图像能够表示为下面的一个线性模型:
I(x)=J(x)t(x)+A(1-t(x))
其中,I(x)代表有雾的图像,J(x)是物体的原始辐射,A是全局大气光照,t(x)被称为介质透射率。然而,如果只提供单张图像的信息,同时求解t(x)和A的话,这是一种欠适定的问题。
为了解决这个问题,大部分传统的去雾算法依赖于假设和先验条件来估计透射图,进而以此求出其他未知数。(1)基于对比度的方法:与有雾图像的对比度相比,Tan等人发现无雾图像的对比度更低,同时其投射率的变化只跟物体的深度有关,所以利用马尔可夫随机场对投射图进行建模[1];(2)基于颜色衰减先验的方法:Zhu等人采用了一种基于先验的简单的线性回归模型来预测场景深度[2],其方法是利用了在无雾区域的亮度和颜色饱和度会非常相似,但是在有雾区域的亮度和颜色饱和度会有非常大的区别的物理特性。(3)基于暗通道的方法:He等人利用暗通道的先验进行去雾。所谓暗通道就是在绝大多数非天空局部区中,光强最小的值。借助暗通道图,可以从有雾的图像中获得所有需要的参数值[3]。(4)基于全局像素的方法:Berman等人基于一个先验知识:一张清晰干净的图像中图像像素点的数量远大于不同颜色的数量。通常,对于一张正常图像,在RGB空间上,图像的像素点的颜色可以聚合成几百个小的团簇。而这些属于同一个团簇的像素点会聚集在RGB空间的直线上,这些直线成为雾线。该方法正是利用雾线估计透射率,进而通过大气散射模型得到去雾后的图像[4]。从上述方法中可以看出,一般去雾算法极大地依赖于透射图估计的准确程度。而透射图的估计又需要基于各种各样的先验和假设。一旦实际图像不符合事先的假设,那么图像的去雾效果就会非常差。
为了提高透射图估计的准确率,近年来,学术界开始利用深度学习来解决图像去雾问题。Cai等人是第一个提出用深度学习来学习有雾图像到投射图的映射关系,在此基础上再利用大气散射模型重建出较为清晰的图像[5]。Ling等人和Ren等人改进了Cai的估计透射图的方法,分别提出了基于深度CNN的透射图估计[6]和基于多尺度的透射图估计[7]。但是,这种将透射图和全局大气光照度分开估计的方法会导致次优解的问题。因为在两部分参数分别估计的时候产生的误差会不断累积,然后在两个参数并行优化的时候被放大。因此,Li等人将图像去雾问题彻底转化为端对端的问题,通过神经网络直接学习有雾图像到无雾图像的映射关系[8]。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福建帝视信息科技有限公司,未经福建帝视信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810361296.8/2.html,转载请声明来源钻瓜专利网。