[发明专利]一种基于匹配网络少样本学习的图像分类方法有效
申请号: | 202110727063.7 | 申请日: | 2021-06-29 |
公开(公告)号: | CN113537305B | 公开(公告)日: | 2022-08-19 |
发明(设计)人: | 杜刚;周小林;张永刚;姜晓媛;邹卓;郑立荣 | 申请(专利权)人: | 复旦大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774;G06V10/82;G06V10/74;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 上海正旦专利代理有限公司 31200 | 代理人: | 陆飞;陆尤 |
地址: | 200433 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 匹配 网络 样本 学习 图像 分类 方法 | ||
本发明属于计算机视觉图像识别技术领域,具体为一种基于匹配网络少样本学习的图像分类方法。本发明步骤包括:将图像数据集划分为类别互斥的训练集和测试集;基于episode方式将训练集和测试集分别划分出支持集和查询集;将支持集和查询集样本通过卷积神经网络CNN进行特征提取;将支持集和查询集的样本特征通过基于注意力机制的长短期记忆网络进行完全条件嵌入;由得到的支持集,查询集完全条件嵌入的结果,计算查询集和支持集的改进余弦相似度,并计算预测值;计算混合损失函数,用AdamW梯度学习算法优化匹配网络模型;将在训练集上训练后的模型,应用于测试集,得到分类结果。本发明方法图像分类精度高、运算速度快。
技术领域
本发明属于计算机视觉图像识别技术领域,具体涉及一种基于匹配网络少样本学习的图像分类方法。
背景技术
深度学习是近十年来人工智能领域取得的最重要的突破之一,目前它已经在图像分类方面取得较大成功。深度学习取得如此成就的原因之一在于它利用多层网络从大数据中自动学习特征,但也正因为它对大数据依赖性强,使得其在实际应用中被限制。深度学习中的图像分类有许多潜在方面的应用,但没有公开可用的数据集,许多研发部门没有足够的资金去创建规模庞大的数据集;其次深度学习的网络结构较深,模型训练非常耗时,在面对复杂多变的分类时需要重新训练大数据集,不可避免地产生很大地时间损失。
近年来元学习成为深度学习的研究热门之一,少样本学习又是其主要的应用,成为解决上述问题的途径之一。元学习又称学会学习,核心思想是“用已用经验学会学习”,将这种思想应用于少样本学习,可以通过少量的数据标签训练得到泛化能力强,具有继续学习能力的模型。
发明内容
针对以上问题,本发明的目的在于提供一种分类精度高、计算速度快的基于匹配网络少样本学习的图像分类方法。
本发明在匹配网络基础上,从构建混合损失函数、采用AdamW梯度学习算法、改进余弦度量三个方面组合,构建图像分类方法,并取得更高分类精度。
本发明提供的基于匹配网络的少样本学习的图像分类方法,具体步骤为:
Step1:将图像数据集划分为训练集和测试集;
Step2:基于episode方式在训练集和测试集中分别划分出支持集和查询集,利用少样本学习k-wayn-shot构建episode;
Step3:将支持集和查询集通过卷积神经网络CNN进行特征提取,得到支持集和查询集的特征;
Step4:将支持集和查询集的特征通过基于注意力机制的长短期记忆网络(bidirectional Long-Short Term Memory,LSTM)进行完全条件嵌入(Hochreiter S,Schmidhuber J.Long short-term memory[J].Neural computation,1997,9(8):1735-1780.);
Step5:由Step4得到的支持集,查询集完全条件嵌入的结果,计算查询集和支持集的改进余弦相似度,并计算查询集样本的预测值;
Step6:计算混合损失函数,用AdamW梯度学习算法(Loshchilovl,HutterF.FixingWeight Decay RegularizationinAdam[J].)优化匹配网络模型;
Step7:将上述在训练集上训练后的模型,应用于测试集。
最后,计算其分类准确率,评估该模型的泛化能力。
进一步地,在Step1中,训练集和测试集的图像类别互斥。
进一步地,Step2的具体操作流程如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于复旦大学,未经复旦大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110727063.7/2.html,转载请声明来源钻瓜专利网。