[发明专利]一种基于对比知识蒸馏的类别增量语义分割方法在审
申请号: | 202211267862.1 | 申请日: | 2022-10-17 |
公开(公告)号: | CN115661450A | 公开(公告)日: | 2023-01-31 |
发明(设计)人: | 赵丹培;苑博;史振威;张浩鹏;姜志国 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V20/70;G06V10/82;G06N3/09 |
代理公司: | 北京慕达星云知识产权代理事务所(特殊普通合伙) 11465 | 代理人: | 符继超 |
地址: | 100000*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 对比 知识 蒸馏 类别 增量 语义 分割 方法 | ||
1.一种基于对比知识蒸馏的类别增量语义分割方法,其特征在于,包括:
步骤1:构建增量学习策略,设定总学习类别CT,设定增量学习过程{Step0,Step1,…,StepT},设定在增量学习步骤Stept中,训练集为Dt,在类别增量语义分割任务中,当在Dt上进行模型训练时,无法获取旧有类别的标注数据,且仅有当前类别Ct对应的标注;
步骤2:设定基础训练类别,将图像样本与标注送入所构建的特征提取网络中,训练基础模型M0;相应地,将第t步增量学习训练得到的模型记为Mt;
步骤3:针对第t步增量学习步骤Stept,将第t-1步增量学习训练得到的模型记为Mt-1作为教师模型T,将第t步增量学习训练得到的模型Mt作为学生模型S,通过所构建的密集对齐式知识蒸馏策略构建知识蒸馏损失,将特征提取能力迁移到学生模型S中;利用所构建的非对称隐空间区域对比学习策略构建对比学习损失,提升模型Mt已知类别与新增类别的区分能力;利用所构建的类别感知伪标注生成策略将待训练样本送入模型Mt-1得到已知类别的伪标注,并将其与第t步增量学习步骤获取的人工标注进行像素级融合,用于监督Mt的训练过程;
步骤4:基于步骤3所述内容利用训练集Dt进行增量学习的训练,得到训练好的第t步模型Mt;
步骤5:迭代执行步骤3和步骤4,直至增量学习的类别数量达到设定的总学习类别CT。
2.根据权利要求1所述的一种基于对比知识蒸馏的类别增量语义分割方法,其特征在于,构建知识蒸馏损失具体包括:
在第t步增量学习步骤Stept中,将输入的图像批分别送入第t-1步的模型Mt-1和第t步的模型Mt中提取深度特征{flt-1,flt},l∈Nl;其中l代表特征提取网络的当前特征层,Nl代表特征提取网络的总层数;
对于中间特征层{l1,l2,l3},基于空洞空间池化金字塔计算不同尺度特征的特征响应
其中,Λ表示经过空洞空间金字塔池化后将深度特征转化为一维张量的操作;
针对中间层特征蒸馏,利用KL散度计算张量之间的距离:
其中dD(·)为KL散度距离,和分别代表Mt-1和Mt对于像素i的预测类别概率,W'与H'分别为特征嵌入的高度和宽度;
针对输出层{lout},计算模型Mt-1和模型Mt的特征表达经过非线性激活层后的特征张量之间的相似度约束输出层特征蒸馏;
构建衰减式层感知权重:
其中α为初始化蒸馏权重,nl和Nl分别表示当前特征层深度与总特征层数,γ为小于1的正的常系数,ne和Ne分别表示第n个训练轮数和总训练轮数;
基于衰减式层感知权重引导中间层特征蒸馏,中间层蒸馏损失为:
输出层蒸馏损失为:
基于中间层蒸馏损失LIL-D与输出层蒸馏损失LOL-D计算密集对齐式知识蒸馏策略的损失函数LDADA:
LDADA=LIL-D+λLOL-D
其中λ为常系数,用于平衡中间特征层与输出层在知识蒸馏中的贡献度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211267862.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:高紧固度螺栓
- 下一篇:一种太阳能电池及其制备方法