[发明专利]聚焦于陌生样本的不平衡学习有效

专利信息
申请号: 202111606351.3 申请日: 2021-12-26
公开(公告)号: CN114638336B 公开(公告)日: 2023-09-22
发明(设计)人: 胡祝华;赵瑶池 申请(专利权)人: 海南大学
主分类号: G06N3/0985 分类号: G06N3/0985;G06F18/214;G06N3/0464
代理公司: 广州维普知识产权代理事务所(普通合伙) 44843 代理人: 张鹏
地址: 570228 *** 国省代码: 海南;46
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 聚焦 陌生 样本 不平衡 学习
【权利要求书】:

1.聚焦于陌生样本的不平衡学习方法,用于基于深度神经网络的语义分割模型的不平衡学习和推理,其特征在于,该方法包括:

将图像样本的深度神经网络logit输出值作为语义分割模型对于图像样本的熟悉程度的指标值,认为具有较低logit输出值的图像样本为语义分割模型的陌生图像样本;

具体来说,在语义分割模型的训练过程中,其损失函数为基于图像样本logit值的成本敏感损失函数;

在语义分割模型的推理过程中,先在验证集上基于logit的偏移性获得最佳分类器中的偏移参数,再根据该偏移参数在测试集上推理;

成本敏感损失函数分为实例级函数和类别级函数,聚焦于陌生图像样本学习的成本敏感损失函数分为实例级方法和类别级方法;

所述实例级方法将传统的交叉熵损失函数改进为实例级的聚焦于陌生图像样本的成本敏感损失函数(Instance-levelFocalstrangerloss,IFSL);

所述类别级方法将传统的基于类频率成本的平衡交叉熵损失函数(CrossEntropyBasedonclassFrequency,BCE_F)改进为类别级的聚焦于陌生图像样本的成本敏感损失函数(Class-levelFocalstrangerloss,CFSL);

所述函数IFSL的计算公式为:

其中,xi为第i个图像样本输入;

θ为语义分割模型参数;

pi为第i个图像样本在语义分割模型上的概率输出;

pit为第i个图像样本的真实类的概率输出;

yi为第i个图像样本的标签;

为第i个图像样本在语义分割模型上的logit输出线性变换到[0,255]区域内的值;

μt为基于logit的成本敏感损失函数;

其中,T∈(0,1),表示陌生图像样本的定义范围,μ∈(1,2),表示陌生图像样本的聚焦程度;

所述CFSL的计算公式为;

其中,xi为第i个图像样本输入;

θ为语义分割模型参数;

yi为第i个图像样本的标签;

为第i个图像样本在语义分割模型上的logit输出线性变换到[0,255]区域内的值;

μt为基于logit的成本敏感损失函数;

pi为第i个图像样本在语义分割模型上的概率输出;

pit为第i个图像样本的真实类的概率输出;

其中,T∈(0,1),表示陌生图像样本的定义范围,μ∈(1,2),表示陌生图像样本的聚焦程度;

所述推理的步骤包括:

1)通过公式(4)获得语义分割模型中分类器的最优偏移参数;

其中,H(·)为语义分割模型在验证集上的性能指标;

p={p0,p1}为预测概率;

其中,fc为图像样本在c类上的logit值;

y={y0,y1}为标签值;

b={b0,b1}为偏移函数;

公式(4)中为最优的δ,即使得语义分割模型性能在验证集上达到最优的δ;

2)在语义分割模型的分类器中通过公式(7)推理得到预测类;

其中,Cpre为预测类;

pc为类别c上的概率,其计算公式如(5)所示;

δ通过步骤1)求得,为偏移值。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于海南大学,未经海南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202111606351.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top