[发明专利]小样本学习方法、装置、电子设备和存储介质有效
申请号: | 202110252710.3 | 申请日: | 2021-03-09 |
公开(公告)号: | CN112633419B | 公开(公告)日: | 2021-07-06 |
发明(设计)人: | 周迪;曹广;徐爱华;王勋;何斌;汪鹏君;王建新;章坚武;骆建军;樊凌雁;肖海林;鲍虎军 | 申请(专利权)人: | 浙江宇视科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 孟金喆 |
地址: | 310051 浙江省杭州市滨江区西兴街道江陵路*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 样本 学习方法 装置 电子设备 存储 介质 | ||
本发明实施例公开了一种小样本学习方法、装置、电子设备和存储介质。该小样本学习方法包括:根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;根据标签预处理模型对图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;根据图像矩阵和标签矩阵的损失值进行反向传播,以对图像表示模型和标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。实现了将自然语言任务中的知识引入进图像的特征识别任务中,实现不同任务知识的融合,进而加速在小样本数据集情况下对图像特征的学习,提高小样本数据集下图像特征学习的效率和准确率。
技术领域
本发明实施例涉及机器学习技术领域,尤其涉及一种小样本学习方法、装置、电子设备和存储介质。
背景技术
由于常规的深度学习算法需要大量训练样本集才能实现较好的效果,限制了它在许多领域的应用。
目前,针对小样本训练集的特征学习,常用的技术手段有数据增强、迁移学习、元学习等,但是这些方法仍存在跨领域任务表现差、出现灾难性遗忘等缺点,整体而言在小样本训练集下深度学习的效果并不理想。
发明内容
本发明实施例提供一种小样本学习方法、装置、电子设备和存储介质,以提高小样本情况下的学习效果。
第一方面,本发明实施例提供了一种小样本学习方法,包括:
根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;
根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;
根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。
第二方面,本发明实施例还提供了一种小样本学习装置,包括:
图像编码模块,用于根据图像表示模型对图像训练样本集进行编码,得到由每个图像训练样本的图像向量表示构成的图像矩阵;
标签编码模块,用于根据标签预处理模型对所述图像训练样本集的标签进行编码,得到由每个图像训练样本标签的标签向量表示构成的标签矩阵;
模型优化模块,用于根据所述图像矩阵和所述标签矩阵的损失值进行反向传播,以对所述图像表示模型和所述标签预处理模型进行参数优化,得到训练完成的图像表示模型和标签预处理模型。
第三方面,本发明实施例还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的小样本学习方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例所述的小样本学习方法。
本发明实施例对图像以及图像标签进行编码得到图像矩阵和标签矩阵,通过图像矩阵和标签矩阵共同确定损失值进行反向传播,对模型参数进行优化。实现了将自然语言任务中的知识引入进图像的特征识别任务中,实现不同任务知识的融合,进而加速在小样本数据集情况下对图像特征的学习,提高小样本数据集下图像特征学习的效率和准确率。
附图说明
图1是本发明实施例一中的小样本学习方法的流程图;
图2是根据标签预处理模型对图像训练样本集的标签进行编码的过程示意图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江宇视科技有限公司,未经浙江宇视科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110252710.3/2.html,转载请声明来源钻瓜专利网。