[发明专利]基于深度学习的非接触式视频测谎方法及系统在审
申请号: | 201910088989.9 | 申请日: | 2019-01-30 |
公开(公告)号: | CN111507124A | 公开(公告)日: | 2020-08-07 |
发明(设计)人: | 王春雷;尉迟学彪;毛鹏轩 | 申请(专利权)人: | 北京入思技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100083 北京市海淀区学清路甲18号*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 接触 视频 方法 系统 | ||
本发明提供一种基于深度学习的非接触式视频测谎方法及系统,所述方法包括:接收用户视频图像;提取所述视频图像中的面部图像特征和肢体图像特征;基于所述面部图像特征和肢体图像特征利用训练好的深度卷积神经网络计算所述用户说谎的概率;以及根据所述概率给出所述用户是否说谎的结果。本发明提供的基于深度学习的非接触式视频测谎方法和系统不需要用户专门配合,可以在对话过程中通过对用户面部特征和肢体特征的融合分析,实现对用户是否说谎的非接触式自动判定,因此易于实现并且在使用上非常灵活和方便。
技术领域
本发明涉及视频图像处理技术领域,具体而言涉及一种基于深度学习的非接触式视频测谎方法及系统。
背景技术
测谎技术在侦查案件、审问犯人的时候具有重要的作用,其虽然不能保证检测的绝对准确性,但其测试数据给公安机关、法院等机构提供重要的参考,使得执法人员能迅速了解被侦查人员的心理,加快破案速度。因此如何使用科技手段方便、快速并准确地检测被测人员是否撒谎具有重要意义。
传统的测谎方法通常为接触式的,容易被被测者提防,导致检测结果不准确。此外,银行或其他金融机构不可能要求每一个来申请贷款的客户都测量心跳,血压等指标。近年来,基于面部表情的视频测谎技术逐渐兴起。然而,人的面部表情是可以伪装的,单纯依赖面部表情进行视频测谎存在一定的局限性。因此,为解决上述技术问题,有必要提出一种新的测谎方法及系统。
发明内容
针对现有技术的不足,本发明提出一种基于深度学习的非接触式视频测谎方法,所述方法包括:步骤S101:接收用户视频图像;步骤S102:提取用户视频图像中的面部图像特征和肢体图像特征;步骤S103:基于面部图像特征和肢体图像特征利用训练好的深度卷积神经网络计算用户说谎概率;以及步骤S104:根据所述概率给出所述用户是否说谎的结果。
示例性地,所述步骤S102包括:在所述用户视频图像中分割出面部、肢体区域;针对所述面部区域,检测并标记面部区域关键点,计算所述面部区域各关键点的位置与面部区域关键点平均位置的距离,并针对面部区域各关键点提取加速段测试特征,以得到面部区域特征向量;以及针对所述肢体区域,检测并标记肢体区域关键点,计算所述肢体区域各关键点的运动矢量,并使用FIR滤波器对所述肢体区域各关键点的运动矢量进行时域滤波,以得到肢体区域特征向量。
根据本发明的实施例,所述深度卷积神经网络的训练包括:采集不同人的视频图像并标记出是否说谎;在所采集的视频图像的面部区域上提取加速段测试特征以得到面部区域特征向量;在所采集的视频图像的肢体区域上提取运动矢量特征并进行时域滤波以得到肢体区域特征向量;以所标记的是否说谎为训练目标,利用所述面部区域特征向量和肢体区域特征向量对所述深度卷积神经网络进行训练。
示例性地,所述步骤S104包括:当所述概率高于预定阈值,则判定所述用户说谎,否则判定所述用户未说谎。
另一方面,本发明还提供一种基于深度学习的非接触式视频测谎系统,所述系统包括:视频接收模块,用于接收用户视频图像;特征提取模块,用于提取用户视频图像中的面部图像特征和肢体图像特征;说谎判定模块,用于基于面部图像特征和肢体图像特征利用训练好的深度卷积神经网络计算用户说谎概率;以及结果输出模块,用于根据所述概率给出所述用户是否说谎的结果。
示例性地,所述特征提取模块通过如下方法实现:在所述用户视频图像中分割出面部区域、肢体区域;针对所述面部区域,检测并标记面部区域关键点,计算所述面部区域各关键点的位置与面部区域关键点平均位置的距离,并针对面部区域各关键点提取加速段测试特征,以得到面部区域特征向量;以及针对所述肢体区域,检测并标记肢体区域关键点,计算所述肢体区域各关键点的运动矢量,并使用FIR滤波器对所述肢体区域各关键点的运动矢量进行时域滤波,以得到肢体区域特征向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京入思技术有限公司,未经北京入思技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910088989.9/2.html,转载请声明来源钻瓜专利网。