[发明专利]注意力尺度感知引导的轻量化U-net方法、装置及存储介质有效
| 申请号: | 202211394805.X | 申请日: | 2022-11-09 | 
| 公开(公告)号: | CN115578565B | 公开(公告)日: | 2023-04-14 | 
| 发明(设计)人: | 周展;李朋超;蔡丽蓉 | 申请(专利权)人: | 北京矩视智能科技有限公司 | 
| 主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/40;G06V10/80;G06V10/82;G06N3/0495;G06N3/0464;G06N3/08 | 
| 代理公司: | 北京细软智谷知识产权代理有限责任公司 11471 | 代理人: | 葛钟 | 
| 地址: | 100089 北京市海淀区中*** | 国省代码: | 北京;11 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 注意力 尺度 感知 引导 量化 net 方法 装置 存储 介质 | ||
1.注意力尺度感知引导的轻量化U-net方法,其特征在于,所述方法包括:
将待分割的图像输入到分割网络中,经过多层卷积以及池化操作后,得到多层不同级别的特征图,选取最深层特征F;
将最深层特征F输入到注意力尺度感知模块中,用于获取最深层特征F的平均池化结果以及最大池化结果;
注意力感知模块将权值共享的1×1卷积层分别应用到平均池化结果以及最大池化结果上,得到特征F1以及特征F2;
基于特征F1以及特征F2生成强调最深层特征F中对应特征的注意力A;
所述基于特征F1以及特征F2生成强调最深层特征F中对应特征的注意力A包括:
基于特征F1以及特征F2,通过softmax函数生成强调最深层特征F中对应特征的注意力A,所述注意力A用于强调最深层特征F中对应特征的重要性;
基于特征F1、特征F2以及注意力A生成缩放后的特征Fscale;
通过可学习参数a对特征Fscale和输入的最深层特征F之间进行元素求和运算,得到特征FSSAM;
对注意力尺度感知模块输出的特征FSSAM执行上采样操作,并将采样结果与多层不同级别的特征图进行融合得到特征Xm,将特征Xm通过一层卷积后输出待分割的图像的缺陷区域的分割结果。
2.根据权利要求1所述的方法,其特征在于,
所述将最深层特征F输入到注意力尺度感知模块中,用于获取最深层特征F的平均池化结果以及最大池化结果包括:
将最深层特征F输入到注意力尺度感知模块中;
注意力尺度感知模块通过并行的最大池化操作以及平均池化操作分别对最深层特征F进行聚合处理,得到最深层特征F的平均池化结果以及最大池化结果。
3.根据权利要求2所述的方法,其特征在于,
所述输出待分割的图像的缺陷区域的分割结果包括:
对注意力尺度感知模块输出的特征FSSAM执行上采样操作;
将采样结果与最深层特征F的上一层特征图进行U-net式的通道维度拼接融合,对融合结果进行卷积操作以及激活操作得到特征X1;
再对特征X1执行上采样操作,重复上述步骤,直到与最浅层特征图进行U-net式的通道维度拼接融合,对融合结果进行卷积操作以及激活操作得到特征Xm;
将特征Xm通过一层卷积后输出待分割的图像的缺陷区域的分割结果。
4.根据权利要求3所述的方法,其特征在于,
所述生成缩放后的特征Fscale包括:
分别在注意力A、特征F1以及特征F2之间执行元素乘操作,用于生成缩放后的特征Fscale。
5.根据权利要求4所述的方法,其特征在于,
所述将待分割的图像输入到分割网络中,经过多层卷积以及池化操作后,得到多层不同级别的特征图,选取最深层特征F包括:
将待分割的图像输入到分割网络中,经过卷积以及池化操作后,得到特征MN,所述特征MN即为最浅层特征图;
对特征MN再进行卷积以及池化操作后,得到特征MN-1;
重复上述步骤,经过预设次数的卷积以及池化操作后,得到最深层特征F。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京矩视智能科技有限公司,未经北京矩视智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211394805.X/1.html,转载请声明来源钻瓜专利网。





