[发明专利]一种基于多尺度卷积和注意力机制的图像分类模型及方法在审
| 申请号: | 202011154873.X | 申请日: | 2020-10-26 |
| 公开(公告)号: | CN112241765A | 公开(公告)日: | 2021-01-19 |
| 发明(设计)人: | 于桐;吴文瑾;李新武 | 申请(专利权)人: | 三亚中科遥感研究所 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/46;G06N3/04;G06N3/08 |
| 代理公司: | 北京亿腾知识产权代理事务所(普通合伙) 11309 | 代理人: | 陈霁 |
| 地址: | 572000 *** | 国省代码: | 海南;46 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 尺度 卷积 注意力 机制 图像 分类 模型 方法 | ||
本发明提供一种基于多尺度卷积和注意力机制的图像分类模型及方法。该模型包括:预处理层,依次连接的M个编码器,注意力模块,解码器,预测层。待分类的图像经过预处理层处理后输出到编码器。对于M个编码器中的任意的第i个编码器,对接收的特征图进行多尺度卷积提取特征,扩大网络感受野。注意力模块用于对提取的特征进行波段注意力和空间注意力的优化,突出重点特征与细节特征。解码器对优化后的特征进行上采样,逐步还原图像尺寸,最终经过预测层预测,得到像素级分类结果。如此,本发明可以在快速高效获得分类结果的同时获得高精度的验证结果,可以促进图像信息提取领域相关技术的发展。
技术领域
本申请涉及遥感图像分类领域,更具体的,涉及一种基于多尺度卷积和注意力机制的图像分类方法。
背景技术
遥感影像分类是通过对遥感影像光谱、纹理等特征进行分析并判断影像各个像素级所属类别的技术。传统的分类方法单一地依靠地物的光谱特征,并未充分挖掘影像数据特征,分类的鲁棒性较差。相较于传统算法,深度学习模型的卷积神经网络能很好地应用于影像分类任务中,但在浅层特征提取、特征优化与还原方面还有待提高。
通过深度学习相关方法研究各类自然保护区地表覆盖的技术方法很少,因此基于遥感数据将深度学习技术扩展到各种自然保护区遥感监测领域十分有必要。
使用相应方法到保护区监测中遇到三个问题:自然保护区相应的公开数据集很少,需人工构建数据集;保护区地表覆盖类别严重不平衡导致构建的数据集也会出现样本不平衡情况;不同类别保护区(如森林生态、海洋海岸等)地表差异较大。已有的一些分类方法不能很好的解决这些问题,因此,需要一种新的特征提取与还原能力更强的分类方法。
发明内容
本申请的目的是为了解决现有技术中存在的问题,可以在快速高效获得分类结果的同时获得高精度的验证结果,可以促进图像信息提取领域相关技术的发展。
一方面,本申请提供了一种基于多尺度卷积和注意力机制的图像分类模型,包括:预处理层,依次连接的M个编码器,注意力模块,解码器,预测层;其中:
所述预处理层,用于接收待处理的目标图片,对所述目标图片进行预处理,获得并输出第一特征图;
对于所述M个编码器中的任意的第i个编码器,用于接收目标特征图,所述目标特征图为所述第一特征图或第i-1个编码器输出的第i-1个第二特征图,M为大于0的整数,i大于0且不大于M;对所述目标特征图进行编码处理,获得并输出第i个第二特征图;
所述注意力模块,用于针对M个所述第二特征图中的每个当前特征图,对所述当前特征图分别进行平面维最大池化和均值池化,分别得到波段不变且行数和列数都为1的第四特征图和第五特征图;将第四特征图和第五特征图分别输入两个全连接层后,得到第六特征图和第七特征图;将第六特征图与第七特征图求和,得到第八特征图;将第八特征图与所述当前特征图相乘,得到优化后的波段注意力特征;对所述波段注意力特征进行波段维最大池化和均值池化,得到行数和列数不变且波段数为1的第九特征图和第十特征图,拼接第九特征图和第十特征图,得到第十一特征图;对第十一特征图进行卷积处理,将卷积结果与所述优化后的波段注意力特征相乘,得到并输出优化后的注意力特征;
所述解码器,用于对第i个第二特征图所对应的注意力特征和第(M-i)个第三特征图进行解码处理,得到第(M-i+1)个第三特征图;对第M个第三特征图进行解码处理,得到待预测特征图;
所述预测层,用于根据待预测特征图,预测所述目标图片的分类。
优选地,对于所述M个编码器中的任意的第i个编码器,包括卷积模块和特征提取模块;其中:
所述卷积模块,用于根据长度和宽度均为1的卷积核,对接收的所述目标特征图进行卷积处理,得到通道数为64*2i-1的第十二特征图;以及
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三亚中科遥感研究所,未经三亚中科遥感研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011154873.X/2.html,转载请声明来源钻瓜专利网。





