[发明专利]一种基于Inception模型的深度卷积神经网络图像去噪方法在审
| 申请号: | 201810710373.6 | 申请日: | 2018-07-02 |
| 公开(公告)号: | CN109214990A | 公开(公告)日: | 2019-01-15 |
| 发明(设计)人: | 李敏;叶鼎;章国豪;刘怡俊;胡晓敏 | 申请(专利权)人: | 广东工业大学 |
| 主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T7/10;G06N3/04 |
| 代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
| 地址: | 510006 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 卷积神经网络 图像去噪 去噪 网络 预处理 高斯白噪声 求解参数 神经网络 数据扩张 图像处理 图像分布 网络结构 训练数据 训练网络 数据集 原有的 残差 噪声 收敛 噪音 引入 保证 监督 学习 | ||
本发明涉及图像处理的技术领域,更具体地,涉及一种基于Inception模型的深度卷积神经网络图像去噪方法,包括:选取数据集,对数据进行预处理;搭建含一层Inception模型的训练网络;设置网络求解参数,选择合适的监督框架;最优设定网络结构参数,并使用求得的网络进行去噪。本发明的基于Inception模型的深度卷积神经网络图像去噪方法,以深度卷积神经网络为基础,结合高斯白噪声模拟未知的真实噪音和含Inception模型的网络能在保持原有的去噪效果的基础上降低参数量;通过数据扩张的方式,使训练数据的内容更丰富,保证神经网络能够学习到图像分布或噪声的内部结构;通过引入残差结构,使得网络更容易收敛,且效果最佳。
技术领域
本发明涉及图像处理的技术领域,更具体地,涉及一种基于Inception模型的深度卷积神经网络图像去噪方法。
背景技术
随着数字革命的深入,数字图像已经成为人们生活中不可或缺的部分。在获取图像的过程中,因为成像系统的局限,使得采集的图像往往带有噪声;比如,因成像系统电子元器件内部电阻阻值会受温度影响而产生的热噪声;遥感卫星影像,因为太空电磁干扰而产生的随机噪声。在噪声强度达到一定程度的情况下,图像质量会严重下降。这给后续的信息传播和图像处理造成困难。因此,图像去噪技术是计算机视觉领域必不可少的研究课题,是相关图像算法预处理的必备过程。
针对不同图像的特点和噪声的规律,图像去噪的目前解决方案主要分为:传统的去噪方法和深度神经网络的去噪方法。非局部算法中的BM3D充分利用自然图像中的自相似性,有较好的去噪效果;但是,当图像噪声强度增大时,图像内部能够利用的有用信息减少,根据噪声内部的信息进行去噪的BM3D方法的去噪效果就会变差。基于深度学习模型的图像去噪,区别于传统的图像去噪技术,是根据设置网络参数,针对特定的噪声类型和噪声强度进行网络训练,以学习图像块,或者噪声块的内部特征,从而滤除噪声;但是,这些算法均存在诸多不足:基于空域的去噪算法在图像含的噪声较低时,去噪性能会急剧下降;基于频域的去噪算法,在阈值选择不合理时,频域图像去噪因为振铃现象,常常会模糊掉边缘和部分高频纹理信息,这些信息在经过频域变换映射时被丢失,让图像损失部分的高频信息;基于小波变化的图像去噪方法,因为图像本身的复杂度高,选取合适的小波基去分离噪声和信号,是一项比较困难,且需要经验的工作。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于Inception模型的深度卷积神经网络图像去噪方法,结合高斯白噪音模拟未知的真实噪音和Inception模型能在保持原有去噪效果的基础上降低参数量,能够实现与层次结构较深的网络难分伯仲的去噪效果,并且在消除噪声的同时很好地保留了图像中的细节信息。
为解决上述技术问题,本发明采用的技术方案是:
提供一种基于Inception模型的深度卷积神经网络图像去噪方法,包括以下步骤:
S1.在源图像集中选择数据集,对数据集中的数据进行预处理得到用作输入的含噪灰度图像;
S2.搭建设有Inception模型层的深度卷积神经网络并进行训练,以步骤S1中所述的含噪灰度图像作为输入,采用高斯白噪声模拟真实噪声,经深度卷积神经网络去噪,输出为去噪图像;
S3.将步骤S2中所述的去噪图像和实际清晰图像输入到监督框架中,求得去噪图像与实际清晰图像的差距,并通过反向迭代算法优化步骤S2中所述深度卷积神经网络以减小损失函数;
S4.将含噪灰度图像输入到经高斯白噪声训练得到的深度卷积神经网络中,输出得到去噪图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810710373.6/2.html,转载请声明来源钻瓜专利网。





