[发明专利]手势识别方法及装置、存储介质、处理器在审
申请号: | 201910205950.0 | 申请日: | 2019-03-19 |
公开(公告)号: | CN109934184A | 公开(公告)日: | 2019-06-25 |
发明(设计)人: | 孙智;陀健 | 申请(专利权)人: | 网易(杭州)网络有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08;G06T5/00 |
代理公司: | 北京博浩百睿知识产权代理有限责任公司 11134 | 代理人: | 赵昀彬 |
地址: | 310000 浙江省杭州*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标图片 手势识别 存储介质 网络模型 训练样本 处理器 手势 权重参数 手势信息 计算层 输出 图片 | ||
本发明公开了一种手势识别方法及装置、存储介质、处理器。其中,该方法包括:通过对待使用训练样本进行训练,确定第一网络模型中计算层的权重参数,其中,训练样本包括:多张包含不同手势信息的图片;将目标图片输入第一网络模型,输出第一识别结果,其中,第一识别结果用于指示以下信息至少之一:手势在目标图片中的位置,手势在目标图片中内容。本发明解决了相关技术中无法准确、实时、有效的进行手势识别的技术问题。
技术领域
本发明涉及手势识别领域,具体而言,涉及一种手势识别方法及装置、存储介质、处理器。
背景技术
手势识别是视频和图像识别中的一个难点,而手部动作十分灵活,产生的形状繁多,不同手势之间难以区分,容易造成错误检测,目前的传统机器学习算法中网络设计较为庞大,计算量大,因此难以达到实时的效果。
目前的手势识别技术主要有:1)基于机器学习的方法:基于机器学习的方法常见的有使用级联分类器的方法和支持向量机的方法。其中,使用级联分类器的方法通过对Haar等特征采用多个级联的弱分类器来进行判别,达到一定阈值即可对特定手势得到“是”/“否”的结论。其特征通常采用常见的Haar、LBP等,如果想采用其他特征,则需要人为精心设计,且效果难以令人满意。而使用支持向量机的方法则通过对Hog等特征采用支持向量机进行分类,从而判别是否为检测目标,但其准确性也难以达到直播场景的要求。2)基于深度学习的方法:通过多层神经网络进行特征提取,得到特征图,对多个候选框的特征图进行分类,判断是否为想要检测的手势的类型。但目前已有的一些检测算法计算量大,计算耗时久,无法达到移动设备上实时检测的要求。
基于机器学习的方法准确率较差,容易出现错误的检测结果,且其使用的Haar、LBP、Hog等特征种类有限,也难以设计其他的特征种类来取得好的效果。已有的基于深度学习的方法目前存在计算量较大,难以达到视频直播中实时检测的要求。
针对相关技术中无法准确、实时、有效的进行手势识别的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种手势识别方法及装置、存储介质、处理器,以至少解决相关技术中无法准确、实时、有效的进行手势识别的技术问题。
根据本发明实施例的一个方面,提供了一种手势识别方法,包括:通过对待使用训练样本进行训练,确定第一网络模型中计算层的权重参数,其中,所述训练样本包括:多张包含不同手势信息的图片;将目标图片输入第一网络模型,输出第一识别结果,其中,所述第一识别结果用于指示以下信息至少之一:手势在所述目标图片中的位置,手势在所述目标图片中内容。
进一步地,通过对待使用训练样本进行训练,确定第一网络模型中计算层的权重参数包括:将所述训练样本输入至第二网络模型,输出第二识别结果;当所述训练样本与所述第二识别结果之间的相似度大于第一阈值时,根据所述第二网络模型所使用的参数调整所述第一网络模型,得到所述计算层的权重参数。
进一步地,通过对待使用训练样本进行训练,确定第一网络模型中计算层的权重参数之前,获得所述待使用训练样本包括:获取初始训练样本;对所述初始训练样本进行预处理,得到所述待使用训练样本,其中,所述预处理包括以下至少之一:随机曝光处理,随机模糊处理。
进一步地,通过对待使用训练样本进行训练,确定第一网络模型中计算层的权重参数还包括;对所述待使用训练样本中包含不同手势信息的图片进行网格划分;通过对划分后的所述图片进行训练,确定第一网络模型中计算层的权重参数。
进一步地,将目标图片输入第一网络模型,输出第一识别结果之后,所述方法包括;当所述识别结果与样本库中的样本相似度小于第二阈值时,通过调整所述第一网络模型中的权重系数获得识别精度高的第一网络模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于网易(杭州)网络有限公司,未经网易(杭州)网络有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910205950.0/2.html,转载请声明来源钻瓜专利网。