[发明专利]一种针对语义分割模型的上下文不敏感的训练方法有效
申请号: | 201910858848.0 | 申请日: | 2019-09-11 |
公开(公告)号: | CN110807462B | 公开(公告)日: | 2022-08-30 |
发明(设计)人: | 陈怡峰;李颂元;李玺 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/46;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 傅朝栋;张法高 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 针对 语义 分割 模型 上下文 敏感 训练 方法 | ||
1.一种针对语义分割模型的上下文不敏感的训练方法,其特征在于,包括以下步骤:
S1.获取用于训练语义分割的多组图像数据集,并定义算法目标;
S2.使用基于全卷积网络结构的模型在该数据集上进行学习;
S3.使用类擦去样本生成器产生新的训练样本;
S4.使用S2得到的网络参数,在原始数据集和S3生成的新样本上结合一致性损失约束进行模型优化,得到对上下文不敏感的模型;
步骤S1中,对于所述的用于语义分割的多个图像数据集中的一幅图片I,定义算法目标为:检测图片I内的每个像素所属的语义类别;
步骤S2中,使用基于全卷积网络结构的模型在该数据集上进行学习具体包括:
S21.基于全卷积的网络结构的模型φ对输出图片I提取特征;
S22.使用1×1卷积,对提取的特征进行语义类别的预测;
S23.使用交叉熵损失,根据预测类别和原始标签L来优化模型φ,其中原始标签L中含有图片I中各像素所属的真实语义类别;
步骤S3中,所述的类擦去样本生成器用于生成部分类别被擦去的图片和标签作为训练数据来训练模型,其参数包含照片填充单元ie,标签填充单元ce和最大擦去的类别数目m,其输入为原始图片I和原始标签L;类擦去样本生成器中生成新的三元组训练样本{I′,L′,M}的方法如下:
S31.在标签L中统计其包含的类别,记为集合K;
S32.设置r为参数m和集合K的势的较小值;
S33.在集合K中随机选取r类组成擦除类集合Ke;
S34.令I′为一个初始值与I一样的数组,对I′的每个位置,若L中对应位置的标签属于Ke,则将该位置的值置为ie;
S35.令L′为一个初始值与L一样的数组,对L′的每个位置,若L中对应位置的标签属于Ke,则将该位置的值置为ce;
S36.令M是一个与L相同长宽的全零数组,对其每个位置,若L中对应位置的标签属于Ke,则置为1;
步骤S4中,所述的一致性损失约束为一个结合类擦去样本生成器使用的损失约束;对于原始图片I和经过类擦除的图片I′,一致性损失约束要求模型φ在未被擦去的位置,即M值等于0处,提取的特征尽可能地相似;一致性损失约束Lc形式为:
用于监督模型训练的损失L由三项组成:
L=Lce(φ(I′),L′)+αLce(φ(I),L)+βLc
其中Lce(φ(I),L)是输入I时的模型预测类别与标签L的交叉熵损失,Lce(φ(I′),L′)是输入I′时的模型预测类别与标签L′的交叉熵损失;α和β为权重系数;在计算Lce(φ(I′),L′)时,对应位置为标签填充单元ce的损失被忽略,且模型φ对于输入需先做一个减去照片填充单元ie的归一化操作,使被填充ie的位置实际在神经元连接处的值为0。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910858848.0/1.html,转载请声明来源钻瓜专利网。