[发明专利]一种结合混合专家的生成对抗网络遥感图像超分辨重建方法在审
| 申请号: | 202310455838.9 | 申请日: | 2023-04-25 |
| 公开(公告)号: | CN116503251A | 公开(公告)日: | 2023-07-28 |
| 发明(设计)人: | 刘云清;王佳艺;张琼;吕超;颜飞 | 申请(专利权)人: | 长春理工大学 |
| 主分类号: | G06T3/40 | 分类号: | G06T3/40;G06N3/045;G06N3/094;G06T5/50;G06N3/047 |
| 代理公司: | 北京华夏博通专利事务所(普通合伙) 11264 | 代理人: | 赵立萍 |
| 地址: | 130012 *** | 国省代码: | 吉林;22 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 结合 混合 专家 生成 对抗 网络 遥感 图像 分辨 重建 方法 | ||
本发明属于图像超分辨技术领域,尤其为一种结合混合专家的生成对抗网络遥感图像超分辨重建方法,该方法包括以下步骤:步骤一,获取遥感图像数据集,并对图片进行标签,得到样本集;步骤二,使用双三次插值算法重建高分辨率遥感图像作为生成器网络G础框架;步骤三,引入混合专家构建用于遥感图像超分的生成器网络G,结合判别器网络D,得到改进后的生成对抗超分网络。本发明基于混合专家生成对抗网络对图像超分重建,解决了目前超分重建技术应用于不同场景效果存在极大偏差的问题,根据不同领域场景的图像能够自适应聚合网络特征信息,使网络具有一定泛化能力,也减少了现有超分重建方法的局限性。
技术领域
本发明涉及图像超分辨技术领域,具体为一种结合混合专家的生成对抗网络遥感图像超分辨重建方法。
背景技术
遥感图像具有很高的利用价值,在诸多领域例如自然环境监测监控、地质探测勘探、地理位置信息等有着广泛应用。而由于受到大气等自然环境因素的影响以及一些光学成像设备以及硬件条件的限制,导致得到的遥感图像通常为原始高分辨率图像经过压缩后形成的低分辨率(Low-Resolution,LR)图像,分辨率无法达到要求。图像超分辨率(Super-Resolution,SR)重建技术利用一组低质量、低分辨率图像通过算法来产生高质量、高分辨率图像,这种成本低、成效快的技术方法在图像处理研究领域中引起了广泛的关注,同时在卫星遥感图像领域有着极其广泛的应用。
基于深度学习的方法是目前用于实现图像超分辨率重建的主流方法。该方法主要通过建立待处理图像与生成图像端到端的映射关系实现图像超分重建。并通过加深网络结构等方式对网络进行改进,来提升网络图像超分辨率性能。而遥感图像在对地监测过程中需要确定目标区域并对目标区域图像进行放大,需要的纹理、边缘等细节信息更加精确。而现有算法用来提升对监测目标的细节精度无法满足生产需要,因此增强对小目标卫星遥感图像超分辨率重建并提升卫星对小目标区域的精细监控监测,仍然是一个具有挑战性的问题。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种结合混合专家的生成对抗网络遥感图像超分辨重建方法,解决了上述背景技术中所提出的问题。
(二)技术方案
本发明为了实现上述目的具体采用以下技术方案:
一种结合混合专家的生成对抗网络遥感图像超分辨重建方法,该方法包括以下步骤:
步骤一,获取遥感图像数据集,并对图片进行标签,得到样本集;
步骤二,使用双三次插值算法重建高分辨率遥感图像作为生成器网络G的基础框架;
步骤三,引入混合专家构建用于遥感图像超分的生成器网络G,结合判别器网络D,得到改进后的生成对抗超分网络;
步骤四,将训练集输入改进后的混合专家生成对抗网络中进行训练,联合损失函数优化网络,设定训练阈值,最终得到超分辨率混合专家生成对抗网络模型;
步骤五,将低分辨率遥感测试图像输入训练好的混合专家生成对抗网络生成器网络G中,得到高分辨率遥感图像。
进一步地,步骤二中使用双三次插值算法重建的高分辨率遥感图像作为生成器网络G的基础框架,G网络主要用于对低分辨率遥感图像进行超分重建,得到相应的高分辨率遥感图像。
进一步地,步骤三中使用三个专家网络、一个投票网络构成和一个特征融合网络构建生成器网络G,专家一使用残差网络结构用于提取特征的全局信息,专家二使用通道注意力机制网络用于提取图像局部特征信息,使网络更加关注局部特征信息,专家三使用空间注意力机制网络用于提取图像二维平面全局特征信息,投票网络依据各专家所擅长的特征提取能力赋予不同的权重占比,自适应的将各专家中的图像整合到聚合特征中,利用融合网络对特征图像进行融合增强。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长春理工大学,未经长春理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310455838.9/2.html,转载请声明来源钻瓜专利网。





