[发明专利]一种基于遥感影像的目标数据跨域反演增广方法有效
| 申请号: | 202310101406.8 | 申请日: | 2023-02-13 |
| 公开(公告)号: | CN115797163B | 公开(公告)日: | 2023-04-28 |
| 发明(设计)人: | 杨小冈;王思宇;申通;卢瑞涛;席建祥;朱正杰;陈璐;李云松 | 申请(专利权)人: | 中国人民解放军火箭军工程大学 |
| 主分类号: | G06T3/00 | 分类号: | G06T3/00;G06T7/73;G06V10/44;G06V10/75;G06V10/74;G06V10/764;G06V10/82;G06V20/13;G06N3/0464;G06N3/0475;G06N3/048;G06N3/08;G01S13/86 |
| 代理公司: | 西安恒泰知识产权代理事务所 61216 | 代理人: | 王孝明 |
| 地址: | 710025 陕西*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 遥感 影像 目标 数据 反演 增广 方法 | ||
本发明提供了一种基于遥感影像的目标数据跨域反演增广方法,该方法包括以下步骤:步骤1,基于循环生成对抗网络的图像数据多域转换;步骤2,基于对比学习的多域数据增广;步骤3,图像迁移合成得到多域增广数据集。本发明的方法以生成对抗网络为框架,引入了基于循环生成对抗网络的图像数据多域转换方法以及基于对比学习的多域数据增广方法,将可见光遥感图像迁移为红外图像和SAR图像,将合成数据集作为无人巡飞器的匹配基准图,从而实现无人巡飞器利用多源传感器中的多域图像进行导航定位任务;本发明的方法具有良好的性能,提高了定位匹配算法的精度。
技术领域
本发明属于图像数据集制备技术领域,涉及目标数据,具体涉及一种基于遥感影像的目标数据跨域反演增广方法。
背景技术
近些年,无人驾驶巡飞器发展迅速,并逐渐应用于军事侦察打击、测绘勘探、消防救援、电力巡线等多个领域,巡飞器利用自身携带的多源图像传感器实现智能视觉导航、定位技术也成为当下的研究热点。
随着技术的进步,光学遥感图像分辨率不断提高。利用光学遥感图像进行远距离目标及周围环境信息获取,从而实现无人巡飞器的导航定位侦察打击等任务。
随着人工智能技术日趋完善,未来人类社会必然是高速化、智能化发展的大数据时代而智能景象匹配技术则成为导航定位的重要途径之一。基于深度学习的智能匹配算法模型是通过训练数据集并分析挖掘数据不同的差异化信息而获得,因此在前期的模型训练进程中需要大量多域异源图像作为数据支撑,数据集的质量将直接影响人工智能算法模型的能力。绝大多数的研究主要聚焦于人工智能的算法模型当中,但却忽略了智能算法需要大量数据作为驱动以获得更好的算法效能。
由于缺乏其它域图像样本,利用多源成像传感器进行导航定位是一项困难的任务,因此开展基于遥感影像的目标数据跨域反演增广方法是一项极具现实意义且难度较高的任务。
发明内容
针对现有技术存在的不足,本发明的目的在于,提供一种基于遥感影像的目标数据跨域反演增广方法,解决现有技术中的无人巡飞器导航定位任务中存在多种成像技术的定位精度有待进一步提升的技术问题。
为了解决上述技术问题,本发明采用如下技术方案予以实现:
一种基于遥感影像的目标数据跨域反演增广方法,该方法包括以下步骤:
步骤1,基于循环生成对抗网络的图像数据多域转换:
步骤101,基于循环生成对抗网络的图像生成。
步骤102,基于循环生成对抗网络的生成图像判别。
步骤103,设计生成图像与真值之间的总损失函数。
步骤2,基于对比学习的多域数据增广。
步骤3,图像迁移合成得到多域增广数据集:
步骤301,给定一组可见光遥感图像/红外图像非配对数据集分别用和表示,以及一组可见光遥感图像/SAR图像非配对数据集分别用和表示,给定待转换可见光遥感图像数据集用于作为验证集;
步骤302,通过步骤1中的基于循环生成对抗网络的图像数据多域转换的方法分别对步骤301中给定的两组数据进行训练,通过模型推理实现可见光遥感图像转换为相应的红外图像数据集以及SAR图像数据集;
步骤303,通过步骤2中的基于对比学习的多域数据增广的方法分别对步骤301中给定的两组数据进行训练,通过模型推理实现可见光遥感图像转换为相应的红外图像数据集以及SAR图像数据集;
步骤304,将步骤302与步骤303中得到的数据集分别融合,形成融合红外图像数据集,以及融合SAR图像数据集,从而形成多域增广数据集。
步骤4,相似度计算和匹配测试:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军火箭军工程大学,未经中国人民解放军火箭军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310101406.8/2.html,转载请声明来源钻瓜专利网。





