[发明专利]一种基于多级度量的小样本图像分类方法有效
申请号: | 202110284727.7 | 申请日: | 2021-03-17 |
公开(公告)号: | CN112949740B | 公开(公告)日: | 2022-11-25 |
发明(设计)人: | 韦世红;刘红梅;范森;朱龙娇 | 申请(专利权)人: | 重庆邮电大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/80;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 重庆辉腾律师事务所 50215 | 代理人: | 卢胜斌 |
地址: | 400065 重*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 多级 度量 样本 图像 分类 方法 | ||
本发明属于计算机视觉领域,具体涉及一种基于多级度量的小样本图像分类方法,该方法包括:将输入图像的特征向量放入嵌入模块进行特征提取;将经过第二层卷积及第三层卷积得到的特征描述子分别依次进行图像‑类的度量,对第四层卷积得到的特征向量进行全连接并将其做图像‑图像的度量;分别使用Sigmoid函数和Softmax函数对3个度量结果进行运算从而给出每层图像分类概率;最后通过交叉验证法对每一从属概率进行加权融合并输出分类结果;本发明融合图像级及类别级度量结果,有效挖掘图像中所表达的语义信息,能够显著的提高小样本图像分类的准确率。
技术领域
本发明属于计算机视觉领域,具体涉及一种基于多级度量的小样本图像分类方法。
背景技术
近年来,随着计算设备计算能力的增强,大规模标注数据的出现以及深度学习的迅猛发展,计算机在人工智能,特别是在机器学习,计算机视觉和自然语言处理等领域取得了显著地进步和成功。尤其是深度学习的发展,给人工智能各个子领域的发展注入了新的生命力。深度学习的优势有赖于大数据,但在很多实际应用中,数据标注的代价往往是昂贵的。例如,在医学图像分割任务中,需要经验丰富的医生花费大量的时间进行细致的图像标注。此外,还有一些实际应用,甚至连数据本身都是难以获取的,例如病人的疾病发展史,生物分子结构,稀有动植物的图片等等。故针对小数据集的小样本学习成为了解决这类问题的关键技术。小样本学习目前主要有三类方法,即基于数据扩充的方法,基于元学习的方法和基于度量的方法。其中,基于度量的小样本学习是该领域的研究热点。
基于度量的小样本学习方法的核心思想是学习一个深度嵌人神经网络,并使得该网络学到的特征能够很好地泛化到新任务上。其中代表性的方法包括原型网络和关系网络。原型网络为每个支持集都学习一个原型,即一组特征向量的均值。关系网络也为每个支持集釆用均值特征表示,但它更侧重于如何度量查询图像和支持集之间的关系。具体地,关系网络通过学习一个非线性的深度度量网络来进行距离度量。但是,这些方法釆用的都是图像级全局特征,而在数据样本稀缺的情况下这些全局特征并不能非常有效地表征类别分布,使得最终的分类结果不准确。
发明内容
为解决以上现有技术存在的问题,本发明提出了一种基于多级度量的小样本图像分类方法,该方法包括:实时获取图像数据,对获取的图像进行预处理;将预处理后的图像输入到训练好的多级度量的小样本图像分类模型中,得到分类结果;
对多级度量的小样本图像分类模型进行训练的过程包括:
S1:获取图像数据,对图像数据进行预处理,生成训练数据集核测试样本集;
S2:采用嵌入模块提取训练数据集中图像的特征向量;
S3:对经过第二层卷积核第三层卷积后得到的特征向量分别进行图像-类的度量;对经过第四层卷积后得到的特征向量进行全连接,并做图像-图像度量;
S4:分别采用Sigmoid函数和Softmax函数对3个度量结果进行运算获得各自图像分类概率;
S5:使用交叉验证法对每一从属概率进行加权融合并获得最终分类结果;
S6:根据分类结果计算模型的损失函数,并将测试样本集中的数据输入到模型中,不断调整模型的参数,当模型的损失函数值最小时,完成模型的训练。
优选的,嵌入模块由4层卷积块构成,每个卷积块包括一个卷积层、一个批量归一化层、一个ReLU线性激活层及一个2×2最大池化层;在该模块中每个卷积块参数相同,采用64通道的3×3卷积核,步长为1,填充为0。
优选的,采用关系网络进行图像-类的度量,采用原型网络进行图像-图像度量。
进一步的,关系网络包括深度局部描述符连接以及度量学习网络;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110284727.7/2.html,转载请声明来源钻瓜专利网。