[发明专利]一种用于遥感影像地表覆盖分类的深度学习泛化方法有效
申请号: | 202110522371.6 | 申请日: | 2021-05-13 |
公开(公告)号: | CN113343775B | 公开(公告)日: | 2022-08-05 |
发明(设计)人: | 季顺平;罗牧莹;李世忠;黄令勇 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/774;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 王琪 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 遥感 影像 地表 覆盖 分类 深度 学习 泛化 方法 | ||
1.一种用于遥感影像地表覆盖分类的深度学习泛化方法,其特征在于,包括如下步骤:
步骤1,根据已有的源域影像及其对应的地表覆盖类别标注文件构建源域样本库,根据无地表覆盖类别标注的目标域影像构建目标域样本库;
步骤2,第一阶段:风格迁移;利用步骤1构建的源域样本库中的源域影像和目标域样本库中的目标域影像,通过深度学习风格迁移方法进行无需训练的风格迁移,这一阶段将源域影像的风格转换成目标域影像的风格,生成风格迁移后的源域影像;
步骤3,第二阶段:特征级别的域自适应;构建一个包含两个结构相同的双分支输出卷积神经网络的自集成模型;利用步骤2中得到的风格迁移后的源域影像及其对应标签和目标域影像,共同输入到自集成模型中计算损失函数并通过反向传播进行训练;
步骤3的具体实现包括如下子步骤;
步骤3.1,构建双分支输出卷积神经网络:网络采用Unet结构,编码部分采用VGG16结构将影像逐级下采样进行特征提取,选取在ImageNet数据集上预训练好的VGG16模型参数来加速模型收敛;解码部分,包括两个分支,分支一将特征图逐级上采样并与编码时同级特征进行串联,直至原始影像大小,输出原始影像大小的特征图;分支二将特征图逐级上采样并与编码时同级特征进行串联,直至原始影像的二分之一大小,输出原始影像二分之一大小的特征图,然后将该特征图上采样至影像原始大小;
步骤3.2,构建自集成模型:构建两个完全相同的如步骤3.1中的双分支输出卷积神经网络,一个作为学生模型,另一个作为教师模型;
步骤3.3,模型训练:将目标域风格的源域影像输入学生模型,得到两个分支输出的预测结果图,分别计算其与对应标签间的交叉熵损失函数;将加上高斯噪声的目标域影像分别输入学生模型和教师模型,分别计算教师模型分支一的预测结果图与学生模型分支二的预测结果图之间、教师模型分支二的预测结果图与学生模型分支一的预测结果图之间的均方根损失函数,将以上这些损失函数加权求和作为总的损失函数通过反向传播训练学生模型,教师模型不参与反向传播过程,采用指数移动平均方法将学生模型参数集成得到教师模型参数;
步骤4,利用训练好的自集成模型,对目标域影像进行预测得到像素级的地表覆盖分类结果,拼接该结果并矢量化,输出为最终的目标域影像地表覆盖分类矢量文件。
2.如权利要求1所述的一种用于遥感影像地表覆盖分类的深度学习泛化方法,其特征在于:步骤1的具体实现包括如下子步骤;
步骤1.1,影像预处理:对于源域影像,若待处理影像为分幅影像,则对多幅遥感影像进行拼接得到完整的影像,并将完整影像按地表覆盖范围进行裁剪,然后以某一影像分辨率为基准,对其它影像进行重采样;对于目标域影像,将其重采样到源域影像的分辨率;
步骤1.2,将源域影像的矢量标签栅格化,也就是将各类别矢量对应的像素标记为该类别,得到栅格的地表覆盖类别标签数据;
步骤1.3,样本裁剪:综合考虑计算机性能、地物大小,将遥感影像与其对应的标签数据裁剪为大小适宜的样本块;对于源域影像,若影像数据充足则按照地表覆盖范围进行无重叠裁剪,若影像数据不充分则按照地表覆盖范围进行p%有重叠裁剪;对于源域影像标签数据,按照和源域影像相同方式裁剪;对于目标域影像,按照和源域影像相同方式裁剪。
3.如权利要求1所述的一种用于遥感影像地表覆盖分类的深度学习泛化方法,其特征在于:步骤2的具体实现包括如下子步骤;
步骤2.1,风格迁移模型准备:选定一种真实感风格迁移深度学习方法,StyleNAS风格迁移模型,加载其在大规模计算机视觉数据集上预训练的深度学习风格迁移模型参数;
步骤2.2,风格迁移:若源域数据集和目标域数据集为不同时期、同一地理位置的对应影像,则按照地理位置将源域数据集和目标域数据集中的图像一一对应;若源域数据集和目标域数据集地理位置不对应,则将源域数据集和目标域数据集中图像进行随机对应;将这样成对的源域影像和目标域影像输入到步骤2.1所述风格迁移模型中对源域影像进行风格预测,得到目标域影像风格的源域影像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110522371.6/1.html,转载请声明来源钻瓜专利网。