[发明专利]一种基于小波的双分支网络图像去雨方法、系统和介质在审

专利信息
申请号: 202211051492.8 申请日: 2022-08-31
公开(公告)号: CN115393223A 公开(公告)日: 2022-11-25
发明(设计)人: 罗玉;黄庆东;凌捷 申请(专利权)人: 广东工业大学
主分类号: G06T5/00 分类号: G06T5/00;G06T5/50;G06V10/774
代理公司: 北京清控智云知识产权代理事务所(特殊普通合伙) 11919 代理人: 管士涛
地址: 510060 *** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 分支 网络 图像 方法 系统 介质
【权利要求书】:

1.一种基于小波的双分支网络图像去雨方法,其特征在于,包括:

获取含无雨图像和其对应的合成雨图像作为一个样本对的训练图像集和测试图像集;

将合成雨图像进行二级小波变换,将待去雨图像从图像域转至小波域以进行去雨处理;

基于预设的双分支自适应扩展注意力网络,通过小波逆变换,得到去雨图像;

基于预设的小波和结构相似性的损失函数对去雨图像进行约束,得到标准去雨图像。

2.根据权利要求1所述的一种基于小波的双分支网络图像去雨方法,其特征在于,所述二级小波变换,具体为:二级哈尔小波变换。

3.根据权利要求1所述的一种基于小波的双分支网络图像去雨方法,其特征在于,所述预设的双分支自适应扩展注意力网络,具体为:包括自适应注意力分支和扩展分支,所述自适应注意力分支包括动态分配权重模块、注意力模块和非注意力模块,其中注意力模块和非注意力模块包含多个残差网络模块,所述残差网络模块Res(·)是去掉BN层的ResNet模块,非注意力模块由两个残差网络模块组成,其表示如下:

Fnon-attention=Res(Res(Ri))

其中,Ri表示第i个自适应扩展注意力模块的输入,Res(·)表示残差网络模块,Fnon-attention表示非注意力模块的输出;

此外,所述注意力模块包含多个残差网络模块和上/下采样层,可表示如下:

Fattention=Res(Res(Ri))*σ(Up(Res(Down(Ri)))+Ri)

其中,Up和Down分别表示上/下采样层,σ(·)表示Sigmoid激活函数,*表示矩阵的乘法,Fattention表示注意力模块的输出。

4.据权利要求3所述的一种基于小波的双分支网络图像去雨方法,其特征在于,所述自适应注意力分支的动态分配权重模块,具体为:通过空间通道注意模块来生成动态的权重,可表示为:

α,β=FC(AvgPool(Concate(MaxPool(Ri),AvgPool(Ri))*Ri))

其中,α和β表示自适应注意力分支生成的两个权重向量,FC表示全连接层,AvgPool表示平均池化层,MAxPool表示最大池化层;生成的两个权重向量α和β将分配给注意力模块和非注意力模块,即两个模块的输出将乘上对应的权重向量,可表示为:F1=αFnon-attention+βFattention

5.据权利要求3所述的一种基于小波的双分支网络图像去雨方法,其特征在于,所述扩展分支,具体为:由四个不同膨胀率的空洞卷积提取不同尺度的雨纹信息组成,再将所提取的不同尺度的信息进行合并操作,可表示为:

F2=Concatenate(Conv1(Ri),Conv2(Ri),Conv3(Ri),Conv4(Ri))

其中,Convi表示第i个空洞卷积核,F2为扩展分支的输出,最后和自适应注意力分支的输出进行融合操作,得到输出的特征Fout可表示为:Fout=F1+F2

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202211051492.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top