[发明专利]模型训练方法、特征提取方法及装置有效
| 申请号: | 201911250580.9 | 申请日: | 2019-12-09 |
| 公开(公告)号: | CN113033582B | 公开(公告)日: | 2023-09-26 |
| 发明(设计)人: | 祝勇义 | 申请(专利权)人: | 杭州海康威视数字技术股份有限公司 |
| 主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06V10/764;G06V20/40;G06N3/0455;G06N3/047;G06N3/048;G06N3/088 |
| 代理公司: | 北京博思佳知识产权代理有限公司 11415 | 代理人: | 杨春香 |
| 地址: | 310051 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 模型 训练 方法 特征 提取 装置 | ||
本申请提供一种模型训练方法、特征提取方法及装置,模型训练方法包括:从视频流中提取原始图片,并按照设定的图片遮挡方式对原始图片中设定的部分内容进行遮挡得到训练图片;将训练图片输入至机器视觉学习模型,以由机器视觉学习模型中的编码器对输入的训练图片进行编码得到特征编码并输出给机器视觉学习模型中的解码器,以由解码器根据输入的特征编码重构出训练图片中被遮挡的内容;根据训练图片中设定的部分内容和解码器重构出的被遮挡的内容对机器视觉学习模型的模型参数进行调整得到第一目标模型,所述第一目标模型用于提取待识别图像的图像特征。应用该方法,可以提高训练出的机器视觉学习模型的特征提取精度。
技术领域
本申请涉及机器学习技术领域,尤其涉及一种模型训练方法、特征提取方法及装置。
背景技术
自编码器是一种通过无监督学习,学到输入数据高效表示的人工神经网络,其可用作图像分类、目标检测等机器学习模型的特征提取器。
目前,以机器视觉学习领域为例,在自编码器的训练过程中,是将整个原始图像输入至自编码器,由自编码器重构出整个原始图像,之后,根据实际的原始图像与自编码器重构出的原始图像之间的差异调整自编码器。然而,当原始图像较大时,很容易导致实际的原始图像与自编码器重构出的原始图像之间的差异难以精确计算,由此将影响自编码器的特征提取精度。
发明内容
有鉴于此,本申请提供一种模型训练方法、特征提取方法及装置,以解决相关技术中原始图像与自编码器重构出的原始图像之间的差异难以精确计算,由此将影响自编码器的特征提取精度的问题。
根据本申请实施例的第一方面,提供一种模型训练方法,所述方法包括:
从视频流中提取原始图片,并按照设定的图片遮挡方式对所述原始图片中设定的部分内容进行遮挡得到训练图片;
将所述训练图片输入至机器视觉学习模型,以由所述机器视觉学习模型中的编码器对输入的训练图片进行编码得到特征编码并输出给所述机器视觉学习模型中的解码器,以由所述解码器根据输入的特征编码重构出所述训练图片中被遮挡的内容;
根据所述设定的部分内容和所述解码器重构出的被遮挡的内容对所述机器视觉学习模型的模型参数进行调整得到第一目标模型,所述第一目标模型用于提取待识别图像的图像特征。
根据本申请实施例的第二方面,提供一种特征提取方法,所述方法包括:
将待识别图像输入至按照本申请任一实施例提供的模型训练方法训练出的第一目标模型,得到所述待识别图像的图像特征,所述待识别图像的图像特征用于训练机器视觉识别模型。
根据本申请实施例的第三方面,提供一种模型训练装置,所述装置包括:
提取模块,用于从视频流中提取原始图片,并按照设定的图片遮挡方式对所述原始图片中设定的部分内容进行遮挡得到训练图片;
第一输入模块,用于将所述训练图片输入至机器视觉学习模型,以由所述机器视觉学习模型中的编码器对输入的训练图片进行编码得到特征编码并输出给所述机器视觉学习模型中的解码器,以由所述解码器根据输入的特征编码重构出所述训练图片中被遮挡的内容;
训练模块,用于根据所述设定的部分内容和所述解码器重构出的被遮挡的内容对所述机器视觉学习模型的模型参数进行调整得到第一目标模型,所述第一目标模型用于提取待识别图像的图像特征。
根据本申请实施例的第四方面,提供一种特征提取装置,所述装置包括:
特征识别模块,用于将待识别图像输入至按照如权利要求1至9任一方法训练出的第一目标模型,得到所述待识别图像的图像特征,所述待识别图像的图像特征用于训练机器视觉识别模型。
根据本申请实施例的第五方面,提供一种电子设备,所述设备包括可读存储介质和处理器;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州海康威视数字技术股份有限公司,未经杭州海康威视数字技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911250580.9/2.html,转载请声明来源钻瓜专利网。





