[发明专利]场景识别模型更新方法、装置、存储介质及电子设备有效
申请号: | 201910282003.1 | 申请日: | 2019-04-09 |
公开(公告)号: | CN111796663B | 公开(公告)日: | 2022-08-16 |
发明(设计)人: | 何明;陈仲铭;黄粟;刘耀勇;陈岩 | 申请(专利权)人: | OPPO广东移动通信有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;H04M1/72454 |
代理公司: | 深圳翼盛智成知识产权事务所(普通合伙) 44300 | 代理人: | 黄威 |
地址: | 523860 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 场景 识别 模型 更新 方法 装置 存储 介质 电子设备 | ||
1.一种场景识别模型更新方法,其特征在于,所述场景识别模型包括多个已知场景的场景数据,所述场景识别模型更新方法包括:
获取当前场景的感知数据,所述当前场景为电子设备当前所处环境的场景;
根据所述感知数据从所述多个已知场景的场景数据中确定出目标场景数据,其中所述目标场景数据对应的场景与所述当前场景为相似场景;
对所述感知数据以及所述目标场景数据进行训练,以得到一子模型,其中所述子模型用于对所述当前场景进行识别;
将所述子模型添加至所述场景识别模型中,以对所述场景识别模型进行更新。
2.根据权利要求1所述的场景识别模型更新方法,其特征在于,所述根据所述感知数据从所述多个场景数据中确定出目标场景数据的步骤包括:
将所述感知数据以及所述多个场景数据进行聚类,得到聚类结果;
将所述聚类结果中与所述感知数据处于相同类别的场景数据确定为目标场景数据。
3.根据权利要求1所述的场景识别模型更新方法,其特征在于,所述根据所述感知数据从所述多个场景数据中确定出目标场景数据的步骤包括:
分别计算所述感知数据与每一个所述场景数据的余弦相似度;
将与所述感知数据的余弦相似度大于预设阈值的所述场景数据确定为目标场景数据。
4.根据权利要求1所述的场景识别模型更新方法,其特征在于,所述对所述感知数据以及所述目标场景数据进行训练,以得到一子模型,包括:
将所述感知数据确定为正样本;
将所述目标场景数据确定为负样本;
对所述正样本和所述负样本进行训练,得到支持向量机分类器;
将所述支持向量机分类器确定为子模型。
5.根据权利要求1至4任一项所述的场景识别模型更新方法,其特征在于,所述获取当前场景的感知数据的步骤前,还包括:
判断当前场景是否为所述多个已知场景中的一个场景;
若所述当前场景不是所述多个已知场景中的任一个场景,则获取所述当前场景的感知数据。
6.一种场景识别模型更新装置,其特征在于,所述场景识别模型包括多个已知场景的场景数据,所述场景识别模型更新装置包括:
获取模块,用于获取当前场景的感知数据,所述当前场景为电子设备当前所处环境的场景;
确定模块,用于根据所述感知数据从所述多个已知场景的场景数据中确定出目标场景数据,其中所述目标场景数据对应的场景与所述当前场景为相似场景;
训练模块,用于对所述感知数据以及所述目标场景数据进行训练,以得到一子模型,其中所述子模型用于对所述当前场景进行识别;
更新模块,用于将所述子模型添加至所述场景识别模型中,以对所述场景识别模型进行更新。
7.根据权利要求6所述的场景识别模型更新装置,其特征在于,所述确定模块用于:
将所述感知数据以及所述多个场景数据进行聚类,得到聚类结果;
将所述聚类结果中与所述感知数据处于相同类别的场景数据确定为目标场景数据。
8.根据权利要求6所述的场景识别模型更新装置,其特征在于,所述确定模块用于:
分别计算所述感知数据与每一个所述场景数据的余弦相似度;
将与所述感知数据的余弦相似度大于预设阈值的所述场景数据确定为目标场景数据。
9.根据权利要求6所述的场景识别模型更新装置,其特征在于,所述训练模块用于:
将所述感知数据确定为正样本;
将所述目标场景数据确定为负样本;
对所述正样本和所述负样本进行训练,得到支持向量机分类器;
将所述支持向量机分类器确定为子模型。
10.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行权利要求1至5任一项所述的场景识别模型更新方法。
11.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行权利要求1至5任一项所述的场景识别模型更新方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于OPPO广东移动通信有限公司,未经OPPO广东移动通信有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910282003.1/1.html,转载请声明来源钻瓜专利网。