[发明专利]基于深度神经网络的乘性噪声去除方法在审
申请号: | 201710686764.4 | 申请日: | 2017-08-11 |
公开(公告)号: | CN107644401A | 公开(公告)日: | 2018-01-30 |
发明(设计)人: | 董伟生;王佩瑶;袁明;石光明;赵光辉 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T5/50;G06N3/04;G06N3/08 |
代理公司: | 陕西电子工业专利中心61205 | 代理人: | 韦全生,王品华 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 神经网络 噪声 去除 方法 | ||
1.一种基于深度神经网络的乘性噪声去除方法,其特征在于,包括如下步骤:
(1)获取灰度图像集和含噪图像集对于给定的包含N幅干净灰度图像的灰度图像集,将其备份存储作为灰度图像集并利用乘性噪声加噪方法,对灰度图像集进行加噪,得到含噪图像集其中,Xi∈RL表示第i幅灰度图像,Yi∈RL表示第i幅含噪图像,且1≤i≤N,N表示灰度图像集和含噪图像集中图像的数量,L表示灰度图像和含噪图像的像素个数,RL表示含有L个像素点的图像域;
(2)构建深度神经网络模型:确定深度神经网络输入层节点数、输出层节点数、隐藏层数、隐藏层节点数、学习速率η、激活函数f(z)和初始化各层的权值W(t)及偏置b(t),其中,t表示深度神经网络的层数标号,且t=1,2,···,n-1,n表示深度神经网络的总层数;
(3)训练深度神经网络模型:利用灰度图像集和含噪图像集对深度神经网络模型各层的权值W(t)及偏置b(t)进行训练,得到训练好的深度神经网络模型:
(3a)从含噪图像集中随机选取一个含噪图像yi作为输入训练样本,同时从灰度图像集中对应选取一个灰度图像xi作为输出训练样本;
(3b)计算深度神经网络各层的激活值:将输入训练样本输入到深度神经网络模型中,采用前向传播方法,计算深度神经网络各层的激活值,其中:
第1层的激活值为:a(1)=yi,
第t'=2,3,···,n层的激活值为:a(t')=f(W(t'-1)a(t'-1)+b(t'-1)),
其中,t'表示深度神经网络的层标号,f(·)表示Sigmoid激活函数,W(t'-1)和b(t'-1)分别表示第t'-1层的权值和偏置,a(t')表示第t'层的激活值,a(t'-1)表示第t'-1层的激活值;
(3c)计算深度神经网络各层的学习误差:将输出训练样本输入到深度神经网络模型中,采用误差反向传播方法,计算深度神经网络各层的学习误差,其中:
第n层的学习误差为:δ(n)=xi-a(n),
第t”=n-1,n-2,···,2层的学习误差为:
δ(t”)=((W(t”))Tδ(t”+1)).*f'(W(t”-1)a(t”-1)+b(t”-1)),
其中,W(t”)表示第t”层的权值,W(t”-1)和b(t”-1)分别表示第t”-1层的权值和偏置,a(t”-1)表示第t”-1层的激活值,f'(·)表示函数f(·)的导数,(·)T表示矩阵的转置变换;
(3d)采用误差梯度下降方法,对深度神经网络各层的权值W(t)及偏置b(t)进行更新:
利用深度神经网络各层的激活值和学习误差,将权值更新为W(t)=W(t)-ηδ(t+1)(a(t))T,将偏置更新为b(t)=b(t)-ηδ(t+1),其中,δ(t+1)表示第t+1层的误差,a(t)表示第t层的激活值;
(3e)反复执行步骤(3a)-(3d),直到深度神经网络的输出层学习误差达到预设精度要求或训练次数达到最大迭代次数,结束训练,保存网络结构和各层的权值W(t)及偏置b(t),得到训练好的深度神经网络模型;
(4)获取去噪后的灰度图像:将一幅待去噪图像输入到训练好的深度神经网络模型中,深度神经网络模型的输出即为去噪后的灰度图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710686764.4/1.html,转载请声明来源钻瓜专利网。