[发明专利]基于深度学习的非接触式视频测谎方法及系统在审
| 申请号: | 201910088989.9 | 申请日: | 2019-01-30 |
| 公开(公告)号: | CN111507124A | 公开(公告)日: | 2020-08-07 |
| 发明(设计)人: | 王春雷;尉迟学彪;毛鹏轩 | 申请(专利权)人: | 北京入思技术有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 100083 北京市海淀区学清路甲18号*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 深度 学习 接触 视频 方法 系统 | ||
1.一种基于深度学习的非接触式视频测谎方法,其特征在于,所述方法包括:
步骤S101:接收用户视频图像;
步骤S102:提取用户视频图像中的面部图像特征和肢体图像特征;
步骤S103:基于面部图像特征和肢体图像特征利用训练好的深度卷积神经网络计算用户说谎概率;以及
步骤S104:根据所述概率给出所述用户是否说谎的结果。
2.如权利要求1所述的基于深度学习的非接触式视频测谎方法,其特征在于,所述步骤S102包括:
在所述用户视频图像中分割出面部、肢体区域;
针对所述面部区域,检测并标记面部区域关键点,计算所述面部区域各关键点的位置与面部区域关键点平均位置的距离,并针对面部区域各关键点提取加速段测试特征,以得到面部区域特征向量;以及
针对所述肢体区域,检测并标记肢体区域关键点,计算所述肢体区域各关键点的运动矢量,并使用FIR滤波器对所述肢体区域各关键点的运动矢量进行时域滤波,以得到肢体区域特征向量。
3.如权利要求1所述的基于深度学习的非接触式视频测谎方法,其特征在于,所述深度卷积神经网络的训练包括:
采集不同人的视频图像并标记出是否说谎;
在所采集的视频图像的面部区域上提取加速段测试特征以得到面部区域特征向量;
在所采集的视频图像的肢体区域上提取运动矢量特征并进行时域滤波以得到肢体区域特征向量;
以所标记的是否说谎为训练目标,利用所述面部区域特征向量和肢体区域特征向量对所述深度卷积神经网络进行训练。
4.如权利要求1所述的基于深度学习的非接触式视频测谎方法,其特征在于,所述步骤S104包括:
当所述概率高于预定阈值,则判定所述用户说谎,否则判定所述用户未说谎。
5.一种基于深度学习的非接触式视频测谎系统,其特征在于,所述系统包括:
视频接收模块,用于接收用户视频图像;
特征提取模块,用于提取用户视频图像中的面部图像特征和肢体图像特征;
说谎判定模块,用于基于面部图像特征和肢体图像特征利用训练好的深度卷积神经网络计算用户说谎概率;以及
结果输出模块,用于根据所述概率给出所述用户是否说谎的结果。
6.如权利要求5所述的基于深度学习的非接触式视频测谎系统,其特征在于,所述特征提取模块通过如下方法实现:
在所述用户视频图像中分割出面部、肢体区域;
针对所述面部区域,检测并标记面部区域关键点,计算所述面部区域各关键点的位置与面部区域关键点平均位置的距离,并针对面部区域各关键点提取加速段测试特征,以得到面部区域特征向量;以及
针对所述肢体区域,检测并标记肢体区域关键点,计算所述肢体区域各关键点的运动矢量,并使用FIR滤波器对所述肢体区域各关键点的运动矢量进行时域滤波,以得到肢体区域特征向量。
7.如权利要求5所述基于深度学习的非接触式视频测谎系统,其特征在于,所述深度卷积神经网络的训练包括:
采集不同人的视频图像并标记出是否说谎;
在所采集的视频图像的面部区域上提取加速段测试特征以得到面部区域特征向量;
在所采集的视频图像的肢体区域上提取运动矢量特征并进行时域滤波以得到肢体区域特征向量;
以所标记的是否说谎为训练目标,利用所述面部区域特征向量和肢体区域特征向量对所述深度卷积神经网络进行训练。
8.如权利要求5所述基于深度学习的非接触式视频测谎系统,其特征在于,所述结果输出模块通过如下方法实现:
当所述概率高于预定阈值,则判定所述用户说谎,否则判定所述用户未说谎。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京入思技术有限公司,未经北京入思技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910088989.9/1.html,转载请声明来源钻瓜专利网。





