[发明专利]一种基于原型生成的小样本图像分类方法在审
| 申请号: | 202211328509.X | 申请日: | 2022-10-27 |
| 公开(公告)号: | CN115731411A | 公开(公告)日: | 2023-03-03 |
| 发明(设计)人: | 魏巍;张磊;周飞 | 申请(专利权)人: | 西北工业大学 |
| 主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774;G06V10/74;G06V10/80;G06V10/82;G06N3/0464;G06N3/0455;G06N3/048;G06N3/084 |
| 代理公司: | 西安凯多思知识产权代理事务所(普通合伙) 61290 | 代理人: | 刘涛 |
| 地址: | 71007*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 原型 生成 样本 图像 分类 方法 | ||
本发明公开了一种基于原型生成的小样本图像分类方法,首先,从先验类别样本对中挖掘样本间的差异性分布;然后,根据样本间的差异性分布为每个类别生成大量具有丰富差异性的样本;之后,根据每个类别的支持样本生成类别自适应的权重系数;最后,根据每个类别的权重系数对该类别的所有支持样本进行加权平均来生成理想的原型表示。本发明有效地解决了小样本分类任务中构建原型不准确的问题,取得了较好的分类效果。
技术领域
本发明属于图像处理技术领域,具体涉及一种小样本图像分类方法。
背景技术
图像处理技术在新一代人工智能产业化进程中扮演重要角色。作为图像处理中的一项基础技术,图像分类为目标检测、物体分割等下游任务奠定基础。在实际应用中,图像分类往往面临数据难以获取以及难以标注的问题。如何在小样本条件下提升图像分类算法的性能具有重要研究价值。传统小样本图像分类算法侧重于根据每个类别在特征空间中的原型表示进行最近邻分类。例如,文献“Snell J,Swersky K,Zemel R.Prototypicalnetworks for few shot learning[C]//Advances in Neural Information ProcessingSystems.2017:4077-4087.”,将每个类别的支持样本映射到特征空间,然后对该类别的所有支持样本按照同等贡献度进行加权平均作为该类别的原型表示;最后,根据查询样本到所有类别原型之间的欧式距离进行分类。然而,在小样本任务中,每个类别有限的支持样本难以准确表示该类别的分布;此外,所有支持样本同等贡献度的假设导致生成的原型效果不佳。由于这两个方面的限制,传统方法构建的原型经常偏离理想的类别质心,从而阻碍了这些原型方法的泛化能力。
发明内容
为了克服现有技术的不足,本发明提供了一种基于原型生成的小样本图像分类方法,首先,从先验类别样本对中挖掘样本间的差异性分布;然后,根据样本间的差异性分布为每个类别生成大量具有丰富差异性的样本;之后,根据每个类别的支持样本生成类别自适应的权重系数;最后,根据每个类别的权重系数对该类别的所有支持样本进行加权平均来生成理想的原型表示。本发明有效地解决了小样本分类任务中构建原型不准确的问题,取得了较好的分类效果。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:小样本图像分类任务包含一个支持集和一个查询集Q;其中,支持集包含N个类别,每个类别有K个标记样本,用于提供监督信息;查询集Q由这N个类别的部分未标记样本构成,用于性能测试;为每个小样本图像分类任务构造一个参考样本集R,由分类任务的训练集中随机采样的L个类别的样本对构成,作为计算类间差异性分布的辅助样本;
步骤2:将参考样本集R中来自同一个类别的样本对进行拼接:
其中,表示特征提取器,ri,1和ri,2分别表示参考样本集中第i个类别的两个样本,表示两个特征向量验证特征维度进行拼接,表示第i个类别的样本对进行拼接之后得到的向量;
步骤3:将输入到差异性分布生成器中用于推理样本间的差异性分布;假设样本间差异性分布遵循高斯分布分布参数为:
其中,hη表示差异性分布生成器,L表示参考样本集中总类别个数,μ和σ2分别表示差异性分布的均值和方差;
步骤4:根据差异性分布为小样本图像分类任务中的每个类别生成样本;
对于第n个类别,首先基于类间差异性分布随机采样M个样本间差异性描述子Zn={zn,i|i=1,2,…,M};然后,根据差异性描述子zn,i和该类别所有支持样本的平均值sn进行样本生成:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211328509.X/2.html,转载请声明来源钻瓜专利网。





