[发明专利]基于卷积神经网络的交互动作的识别方法和系统在审
申请号: | 201910914052.2 | 申请日: | 2019-09-25 |
公开(公告)号: | CN110717422A | 公开(公告)日: | 2020-01-21 |
发明(设计)人: | 宋波 | 申请(专利权)人: | 北京影谱科技股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 11694 北京万思博知识产权代理有限公司 | 代理人: | 高镇 |
地址: | 100000 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 肢体动作 交互动作 训练模型 模糊神经网络 训练样本 训练数据集 图片 类别特征 训练数据 优化算法 分类 向量 申请 标注 收敛 采集 优化 | ||
本申请公开了一种基于卷积神经网络的交互动作的识别方法和系统,该方法包括:将采集到的包含人的肢体动作的图片进行标注并分类,将分类后的多个肢体动作图片作为训练数据集;将训练数据集中的训练样本输入DCNN深度卷积神经网络获得训练样本的类别特征向量;利用FNN模糊神经网络计对DCNN深度卷积神经网络进行优化,得到交互动作的DCNN‑FNN训练模型;采用该训练模型识别待识别图片的肢体动作的类别。本申请利用FNN模糊神经网络优化算法可以加快深度卷积神经网络DCNN的收敛速度,以快速得到交互动作的DCNN‑FNN训练模型,从而可以快速、准确地识别待识别图片的肢体动作的类别。
技术领域
本申请涉及交互动作的图像识别领域,特别是涉及一种基于卷积神经网络的交互动作的识别方法和系统。
背景技术
人体交互动作识别方法一般分为基于整体的人体交互动作和基于个体的人体交互动作的识别方法。
其中,基于整体的人体交互动作的识别方法是指将人体交互动作当作一个整体来描述,包括视频中参与交互动作所有的人;现有技术中的一种识别方法是把交互动作当作一个单人动作处理,并结合了全局特征和局部特征来识别人体的交互动作;还有一些识别方法是利用密度轨迹与四种先进的特征编码方法来进行识别的;但是上述基于整体的人体交互动作的识别方法需要相对复杂的特征表示形式以此来提高识别模型分类的准确率,同时也容易忽略人体交互动作的内在属性。
而现有技术中的基于个体的人体交互动作识别方法是把人体交互动作理解成单人个体原子动作的组合;首先,分别分析交互动作中每个个体的动作;接着分析个体之间的特征信息;根据该特征信息最终获得最终的分类结果。
现有技术中还有一种识别方法是基于人体交互动作发生的过程所考虑的,该现有技术提出了分层结构的交互动作识别方法,即根据时间顺序将动作分成动作开始时期、动作执行时期和动作结束时期,在动作开始与结束时期把交互动作分别看作个体动作,在交互动作执行时期将交互动作当作一个整体以提取动作的特征,并在动作分类阶段将分类结果加权融合,该方法由于需要分层,因此识别过程比较复杂;
另外还有按照时间顺序关键姿势的交互动作识别方法,该交互方法是将交互动作的两人看作两个独立的个体,分别学习每个个体的模型参数以进行识别,但是该种识别方法却不能捕捉人的交互信息,因此这一识别方法主要对个体的动作进行分析处理,由于存在个体遮挡与自遮挡现象,因此会干扰动作分类的结果。
综上所述,现有技术中的交互动作的识别方法存在识别过程复杂、准确率低。
发明内容
本申请的目的在于克服上述问题或者至少部分地解决或缓减解决上述问题。
根据本申请的一个方面,提供了一种基于卷积神经网络的交互动作的识别方法,该识别方法包括:
采集步骤:采集包含人的肢体动作的视频流,将人的肢体动作进行标注并分类,获得多个肢体动作图片,将所述多个肢体动作图片作为训练数据集;
训练步骤:将所述训练数据集中的训练样本输入DCNN深度卷积神经网络中,提取所述训练样本的HOG特征向量,并利用SVM分类器对所述HOG特征向量进行分类,获得训练样本的类别特征向量;
优化步骤:利用FNN模糊神经网络计算所述训练样本的类别特征向量的最小化整体误差函数,利用该最小化整体误差函数对DCNN深度卷积神经网络进行优化,得到交互动作的DCNN-FNN训练模型;
识别步骤:采用所述交互动作的DCNN-FNN训练模型识别待识别图片的肢体动作的类别。
可选的,在获得训练样本的类别特征向量前确定该训练样本中的图片的对比度:
计算训练样本中的图片的累积直方图以得到该图片的实际累积频率;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京影谱科技股份有限公司,未经北京影谱科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910914052.2/2.html,转载请声明来源钻瓜专利网。