[发明专利]基于增量主成分分析的特征与模型互匹配人脸跟踪方法有效
申请号: | 201310267907.X | 申请日: | 2013-06-28 |
公开(公告)号: | CN103310204A | 公开(公告)日: | 2013-09-18 |
发明(设计)人: | 吴怀宇;潘春洪;陈艳琴;赵两可 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46 |
代理公司: | 中科专利商标代理有限责任公司 11021 | 代理人: | 宋焰琴 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 增量 成分 分析 特征 模型 匹配 跟踪 方法 | ||
技术领域
本发明涉及计算机图形图像技术领域,尤其是一种高鲁棒性的基于在线增量主成分分析的特征与模型互匹配人脸跟踪方法。
背景技术
近年来,计算机视觉技术取得了长足的发展,图像识别与跟踪已经成为计算机领域一个热门的研究方向。鲁棒的实时人脸跟踪是智能视频监控和基于视觉的人机交互以及机器人导航等领域的一个核心。该技术应用于视频会议、公安刑侦、访问控制、金融支付、医学应用等众多领域。人脸是一个非刚性的识别对象,在运动中,其大小、形状的变化都会影响跟踪的效果,所以实时的人脸跟踪是对计算机视觉领域的一个挑战。
目前人脸跟踪技术主要可以分为三类:基于特征匹配的跟踪、基于区域匹配的跟踪和基于模型匹配的跟踪。
对于基于特征匹配的跟踪:该方法进行序列图像运动目标的跟踪,其包括特征提取和特征匹配两个过程。在特征提取过程中需要选择适当的跟踪特征,并且在序列图像的下一帧中提取这些特征;在特征匹配过程中,将提取到的当前帧的特征同上一帧,或者是用来确定目标物体的特征模板进行比较,根据比较结果确定是否是对应物体,从而完成跟踪过程。但是特征点会由于遮挡或光线变化而不可见,这将导致跟踪失败,这是基于特征匹配跟踪的缺点。
对于基于区域匹配的跟踪:该方法是把图像中目标物体的连通区域的共有特征信息作为跟踪检测值的一种方法。在连续的图像中可以采用多种区域信息。基于区域匹配的跟踪不能根据目标的整体形状来对跟踪结果进行调整,因此在长时间连续跟踪时,容易因误差累积而发生目标丢失的情况。
对于基于模型匹配的跟踪:该方法是通过建立模型的方法来表示需要跟踪的目标物体,然后在序列图像中跟踪这个模型来达到跟踪的目的。目前主要有两种类型的可变形模型,一种是自由式的可变形模型,只要满足一些简单的正则化约束条件(如连续性,平滑性等),就可以用来跟踪任意形状的目标物体,这类方法通常也被称为活动轮廓模型;另一种是参数形式的变形模型,它使用一个参数公式,或者是一个原形与一个变形公式来共同描述目标物体的形状。
由上可见,目前主流的人脸跟踪技术,还是不能在保证鲁棒性的前提下去精准地跟踪到人脸。
发明内容
为了解决现有技术的问题,本发明的目的是提供一种高鲁棒性的人脸跟踪技术。
为了达成所述目的,本发明提出了一种高鲁棒性的在线增量主成分分析的特征与模型互匹配人脸跟踪方法,该方法结合了基于特征匹配(关键点匹配)和基于约束局部模型匹配(CLM)的跟踪,同时加入了在线增量主成分学习,让CLM模型A和关键点点模型B相互匹配,并实时更新,使得检测的精准度和鲁棒性地到了很好地保证,且可以解决较大视角的人脸跟踪问题。
所述高鲁棒性的在线增量主成分分析的特征与模型互匹配人脸跟踪方法包括以下步骤:
步骤S1,对于多幅人脸图像进行离线建模,得到包括形状模型s和纹理模型wT的模型匹配(CLM)模型A;
步骤S2,输入一待跟踪人脸视频,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点检测,将所得到的所有关键点的集合和这些关键点的鲁棒描述子组合起来作为关键点模型B;
步骤S3,基于所述步骤S2得到的关键点模型B,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点匹配,获得每一帧人脸图像中初始的人脸姿态参数组(R,T),其中,R表示角度参数和T表示位移参数;
步骤S4,利用所述模型A对所述待跟踪人脸视频进行CLM人脸跟踪,得到所述待跟踪人脸视频每一帧人脸图像中特征点的位置;
步骤S5,基于所述步骤S3得到的每一帧人脸图像中人脸的姿态参数组和所述步骤S4跟踪得到的每一帧人脸图像中特征点的位置,对所述待跟踪人脸视频中的每一帧人脸图像进行人脸的再跟踪;
步骤S6,使用增量PCA方法对所述模型A进行更新,并利用更新后的模型A重复所述步骤S1-S5,得到最终的人脸跟踪结果。
本发明的有益效果是:本发明结合了基于特征匹配(关键点匹配)和基于模型匹配(CLM)的人脸跟踪,同时加入在线增量学习,让CLM模型A和关键点模型B相互匹配,并实时更新,使得检测的精准度和鲁棒性得到了很好地保证,本发明方法可以解决较大视角的人脸跟踪问题。
附图说明
图1是根据本发明一实施例的基于在线增量主成分学习的特征与模型互匹配人脸跟踪方法流程图;
图2是根据本发明方法对正脸进行跟踪的结果示意图;
图3是根据本发明方法对存在小角度转动的脸部的跟踪结果示意图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310267907.X/2.html,转载请声明来源钻瓜专利网。