[发明专利]一种基于视频流的人脸跟踪识别方法在审
申请号: | 201710106133.0 | 申请日: | 2017-02-27 |
公开(公告)号: | CN108509825A | 公开(公告)日: | 2018-09-07 |
发明(设计)人: | 李瑛莉;韩贤斌;户艳琴;袁文浩;郭晓昌;蒋超;唐卫星;毕建宇 | 申请(专利权)人: | 苏文电能科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 常州佰业腾飞专利代理事务所(普通合伙) 32231 | 代理人: | 郭云梅 |
地址: | 213000 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人脸跟踪 预处理 视频流 帧图像 二维主成分分析 形态学 模式识别技术 目标状态预测 人脸检测模块 人脸识别算法 帧间差分法 复杂背景 高速运动 跟踪算法 加权平均 人脸识别 人脸特征 人脸位置 适应目标 视频样本 手动选取 特征空间 差异性 跟踪 遮挡 视频 改进 | ||
本发明涉及模式识别技术领域,尤其涉及一种基于视频流的人脸跟踪识别方法,通过获取视频样本,对视频中连续的帧图像,进行预处理;通过人脸检测模块定位经预处理后的帧图像中的人脸位置并将其作为人脸跟踪的初始跟踪窗口;跟踪算法在camshift算法的基础上,结合Adaboost算法,采用了形态学方法、目标状态预测以及帧间差分法,解决了传统camshift算法的初始跟踪窗口需手动选取,无法适应目标高速运动、复杂背景、遮挡等复杂情况。最后通过一种加权平均脸和二维主成分分析特征空间相结合的改进人脸识别算法,减少了类内人脸特征的差异性,提高了人脸识别的准确性。
技术领域
本发明涉及模式识别技术领域,尤其涉及一种基于视频流的人脸跟踪识别方法。
背景技术
人脸包含着许多复杂的细节信息,通过观测人脸,可以直观地了解很多对象信息。伴随着生物识别技术的蓬勃发展,人脸跟踪识别逐渐成为了一种有效的、安全的生物身份认证手段。目前已被广泛应用于国家公共安全、司法领域、人机交互、广电行业等方面,有着广阔的应用前景。
目前大部分主流的识别系统多数采用静态图像作为识别的输入元素,对于视频流中动态的人脸识别依然是一项重要的研究课题。然而,在实际中,人脸所处于的不同场景、不同光照等不确定事件都会影响到人脸的检测,从而影响人脸识别。此外,在视频流中人脸的快速移动和目标遮挡、干扰的处理也为人脸跟踪识别技术带来一定的挑战。因此,一方面,需要提高或者是预处理图像的效果;另一方面,改进相应的跟踪识别算法。
现有的人脸跟踪识别技术主要采用Adaboost人脸检测算法理论与基于肤色信息进行运动跟踪的camshift算法。而camshift算法存在需要手动选取初始跟踪窗口,无法适应视频流中目标高速运动、目标 遮挡和复杂背景下的跟踪。
发明内容
为了克服上述现有技术中存在的缺陷,本发明要解决的技术问题是提供一种基于视频流的人脸跟踪识别方法,从而提高现有视频流中人脸跟踪识别技术的识别率与速度,减少因帧图像预处理不完善或其它外界干扰导致的误识率。
为解决上述技术问题,本发明的一种基于视频流的人脸跟踪识别方法,包括如下步骤:
步骤a:获取视频样本,对于视频中连续的帧图像进行预处理;
步骤b:通过人脸检测模块定位经预处理的帧图像中的人脸位置,并将人脸位置作为人脸跟踪的初始跟踪窗口;
步骤c:人脸跟踪模块通过人脸跟踪的初始跟踪窗口,由跟踪算法进行人脸跟踪,获取人脸头像;
步骤d:识别模块对步骤c中获取的人脸头像进行识别,然后进行特征提取并录入人脸特征数据库;
步骤e:识别模块将步骤d中提取的特征与人脸特征数据库中的特征进行匹配,从而识别人脸。
作为本发明的进一步改进,在步骤a中,采用归一化的直方图均衡法完成帧图像的预处理,所述归一化的直方图均衡法包括如下步骤:
步骤1:分割直方图,将输入的直方图分割成多个互不重叠 的子直方图;
步骤2:扩展狭窄的子直方图,将狭窄的子直方图在均衡前进行全强度范围的扩展;
步骤3:将狭窄的子直方图均衡到全范围,宽度子直方图保持不变;
步骤4:将均衡后的多个子直方图结合产生输出图像,并对输出图像的强度级别进行归一化。
作为本发明的进一步改进,使用Adaboost检测算法,对预处理后的帧图像进行人脸位置的检测,包括如下步骤:
步骤A:对输入的人脸正例样本集和负例样本集,通过计算样本积分图得到矩形特征值,由矩形特征值获得矩形特征值集;
步骤B:由矩形特征值集生成弱分类器集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏文电能科技有限公司,未经苏文电能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710106133.0/2.html,转载请声明来源钻瓜专利网。