[发明专利]针对少类别场景的目标检测模型优化与加速的方法有效

专利信息
申请号: 201911350732.2 申请日: 2019-12-24
公开(公告)号: CN111126278B 公开(公告)日: 2023-06-20
发明(设计)人: 王洪波;陈岩 申请(专利权)人: 北京邮电大学
主分类号: G06V20/60 分类号: G06V20/60;G06V10/46;G06V10/82;G06N3/0464;G06N3/08
代理公司: 北京远创理想知识产权代理事务所(普通合伙) 11513 代理人: 卫安乐
地址: 100876 *** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 针对 类别 场景 目标 检测 模型 优化 加速 方法
【权利要求书】:

1.一种针对少类别场景的目标检测模型优化与加速的方法,包括以下步骤:

获取并标注待检测图片;

将标注好的图片,加入到特征提取装置进行特征提取,得到三组固定大小的特征图;

将三组固定大小的特征图送入到带有FocalLoss损失函数的预测装置进行结果预测;

对预测结果进行检测框的过滤,使得对于同一待检测物体,只有一个检测框输出;

其特征是:在所述的FocalLoss损失函数中增加一个自适应模块,具体为:

对于每张图片的每一个预测结果,计算交叉熵损失,累加所有真实标注为前景的损失,记为M,累加所有真实标注为背景的损失,记为N;

计算log(N/M),记为S,如果S小于零,则S置为零,如果是第一次迭代,令S0的值为S;

根据S的值,计算α的值,α=1/(2S+0.2);

根据S和S0的值计算γ的值,计算公式为γ=min(S0-S,2)。

2.如权利要求1所述的针对少类别场景的目标检测模型优化与加速的方法,其特征是所述的检测框的过滤包括以下步骤:

步骤1:首先得到网络的输出检测框坐标信息集合B={b1,b2...bn},置信度集合为S={s1,s2...sn},其中bt,st对应同一检测框坐标信息和置信度;

步骤2:从S中取出置信度最大的元素,其下标记为i;

步骤3:根据下标i得到si和bi,并且将si和bi分别从集合S和B中删除;

步骤4:遍历集合B中剩余检测框,将所有与bi的交并比大于0.5的检测框的下标加入到集合T中,如果T不为空集,则将bi和si分别加入到结果集D和F中,同时从S和B集合中删除下标在集合T中的元素;

步骤5:循环步骤2-4,直到集合B为空集;

步骤6:返回最终结果集合D和F。

3.如权利要求1所述的针对少类别场景的目标检测模型优化与加速的方法,其特征是所述的检测框的过滤包括以下步骤:

步骤1:首先得到网络的输出检测框坐标信息集合B={b1,b2...bn},置信度集合为S={s1,s2...sn},其中bt,st对应同一检测框坐标信息和置信度;

步骤2:从S中取出置信度最大的元素,其下标记为i;

步骤3:根据下标i得到si和bi,并且将si和bi分别从集合S和B中删除;

步骤4:遍历集合B中剩余检测框,将所有与检测框bi交并比大于0.5的检测框所对应的坐标信息和置信度分别加入到集合和中,对于集合和集合中的每个元素,以检测框的置信度为权重,使用检测框的坐标信息对检测框bi进行加权,得到然后从集合S中删除集合中元素,从集合B中删除集合中元素;

步骤5:将和si加入到结果集D和F中;

步骤6:循环步骤2-5,直到集合B为空集;

步骤7:返回最终结果集合D和F。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201911350732.2/1.html,转载请声明来源钻瓜专利网。

同类专利
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top