[发明专利]一种基于轮廓和颜色特征融合编码的图像去雾方法在审
| 申请号: | 201910977828.5 | 申请日: | 2019-10-15 |
| 公开(公告)号: | CN110880165A | 公开(公告)日: | 2020-03-13 |
| 发明(设计)人: | 黄爱爱;胡巍;谭明明;范影乐 | 申请(专利权)人: | 杭州电子科技大学 |
| 主分类号: | G06T5/00 | 分类号: | G06T5/00;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 杨舟涛 |
| 地址: | 310018 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 轮廓 颜色 特征 融合 编码 图像 方法 | ||
1.一种基于轮廓和颜色特征融合编码的图像去雾方法,其特征在于,该方法具体包括以下步骤:
步骤1、构建生成网络Generator-Net,其中Generator-Net由轮廓特征器、低级特征编码区、高级语义编码区、特征解码区四部分组成;
其中生成网络损失函数LG进行了改进,加入了判别纠正权重,如式(1)~(5)所示;
LG=10L1+(1+λ)Lerr (1)
其中,λ表示判别纠正权重;D(Ilabel)表示训练样本标签经Discriminator-Net的判别结果;Ilabel表示训练样本标签;L1表示Generator-Net的输出和训练样本标签之间的距离;Lerr表示Generator-Net的输出经Discriminator-Net判别和正确判别标签之间的距离;G(I)表示Generator-Net的输出,I表示输入图像,G(I)和Ilabel的尺寸一致;C表示输出图像的通道数,W和H分别表示输出图像的宽和高;D(G(I))表示Generator-Net的输出经Discriminator-Net的判别结果;f(·)表示将模拟量映射为0或1;T表示正确判别标签,是全为1的M×N二维矩阵,M=30,N=30;D(G(I))和T的尺寸一样;
1-1、构建轮廓提取器,针对有雾图像I(i,j)提取表征其细节特征的轮廓纹理图Icont(i,j),i、j分别表示像素的行坐标和列坐标;根据视皮层的方向选择特性,设置多方向经典感受野,再结合二维高斯导函数模型,提取带雾图像I(i,j)经典感受野内的中心水平、中心垂直、正、负对角线4类边缘,得到轮廓纹理图Icont(i,j),具体如式(6)~(8)所示;
Icont(i,j)=u(i,j)×max{ev(i,j)} (6)
ev(i,j)=|I(i,j)*RF(i,j,θv)| (8)
其中,RF(i,j,θv)表示高斯导函数;θv对应于上述4类边缘的方位角,v=1,2,...,4;u(i,j)代表响应强度系数;max表示取集合中的最大值;*表示卷积运算;|·|表示取绝对值;×表示乘法运算;
1-2、构建低级特征编码区,提取待处理图像I(i,j)的颜色特征,并融合上述1-1提取的轮廓特征进行编码,获取编码结果;将传统VGG七层网络的卷积层调整为三层;将1-1获得的轮廓纹理图Icont(i,j)依次融入三层卷积层,提高轮廓特征的占容比;将三层卷积层中的卷积核的个数设置为64;前两层卷积层的步长为1,将第三层卷积层的步长设为2;每次卷积操作后都有标准化处理过程,最后通过Relu函数进行激活;特别说明,整个网络中都无池化操作;
1-3、构建高级语义编码区,将上述1-2中低级特征编码区的编码结果进行更深层次的编码;由三个双层残差块和一个残差单元构建高级语义编码区,其中双层残差块由两个残差单元组成;采用空洞卷积来替代普通卷积和池化操作;高级语义编码区包括以下七层结构、
第一层,残差单元1,由两层3×3大小、dilation=2的卷积核组成;
第二层,残差单元2,由两层3×3大小、dilation=2的卷积核组成;
第三层,残差单元3,由两层3×3大小、dilation=3的卷积核组成;
第四层,残差单元4,由两层3×3大小、dilation=3的卷积核组成;
第五层,残差单元5,由两层3×3大小、dilation=4的卷积核组成;
第六层,残差单元6,由两层3×3大小、dilation=4的卷积核组成;
第七层,残差单元7,由两层3×3大小的普通卷积核组成;
将每层卷积核的个数设为64,其中每次卷积后都先标准化操作再经Relu函数激活;
1-4、构建特征解码区,将低级特征编码区的输出结果及高级语义编码的中间结果和最后输出结果进行融合,然后通过卷积神经网络进行特征解码,最终生成去雾图像;,将低级特征编码区的第三层输出结果和高级语义编码区的输出结果进行特征融合,然后将融合结果输入到解码网络;解码区只设计三层反卷积网络;在第一层解码时,根据卷积神经网络前后图像尺寸变化模型设计一个4×4大小、步长为2的卷积核;第二层选用普通的3×3大小、步长为1的卷积核;第三层选用1×1大小的卷积核来压缩解码的所有信息;其中,前两层均是在卷积后先标准化再经Relu函数激活,而最后一层是前两层信息的压缩,不需要函数激活;
步骤2、将步骤1中1-4得到的去雾图像和样本标签输入到判别网络Discriminator-Net进行判断,通过判别传递函数更新网络参数,强化生成网络的去雾能力,同时增强判别网络的判断能力,从而得到更清晰的去雾图像;
其中判别网络损失函数LD,如式(9)~(11)所示;
LD=LT+LF (9)
其中,LT表示训练样本标签经Discriminator-Net判别与正确判别标签之间的距离;LF表示Generator-Net的输出经Discriminator-Net判别与错误判别标签之间的距离;F表示错误判别标签,是全为0的M×N二维矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910977828.5/1.html,转载请声明来源钻瓜专利网。





