[发明专利]一种无监督的实时面部表情捕捉方法有效
申请号: | 201310642644.6 | 申请日: | 2013-12-03 |
公开(公告)号: | CN103679143B | 公开(公告)日: | 2017-02-15 |
发明(设计)人: | 周忠;刘少龙;石峰 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京科迪生专利代理有限责任公司11251 | 代理人: | 杨学明,孟卜娟 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明是一种无监督的实时面部表情捕捉方法。该方法可以在无监督的条件下分析面部特征点,并将特征点转换为具有语义信息的表情单元系数。本发明具有如下特点算法无需对特定用户做表情采集,可以无监督的学习用户面部表情,因此基于本发明算法的系统具有较强的普适性和易用性。 | ||
搜索关键词: | 一种 监督 实时 面部 表情 捕捉 方法 | ||
【主权项】:
一种无监督的实时面部表情捕捉方法,其特征在于如下步骤:(1)从面部图像特征点中提取与FACS表情单元相对应的几何特征;(2)将几何特征添加至几何特征样本集;(3)几何特征样本集根据样本分布计算表情单元变化区间;(4)根据当前几何特征样本和表情单元变化区间计算表情单元系数;所述步骤(2)进一步包括以下子步骤:(2.1)根据潜在误差大小为几何特征样本设置权重,权重值最高为1,最低为0;(2.2)为待添加的几何特征样本增加补偿样本;假设样本的真实值服从高斯分布:sv,ω~N(μ,σ2) (1)其中,sv,ω表示观测值为v,权重为ω的样本的真实值,μ=v,σ=‑lnω;为了补全因误差缺失的信息,需要从观测样本的左右两侧各取一个权重为(1‑ω)/2的补偿样本,然后一起添加到样本集,设补偿样本的值为v′,则有:ω(1-ω)/2=f(v)f(v′)---(2)]]>其中f为高斯分布的概率密度函数;根据公式(2)计算出v′的值;(2.3)样本集已满时进行最近邻样本加权合并;对某个新加入的几何特征样本,在样本集中找到其最近邻样本,然后对这两个样本进行加权合并以形成一个新样本;合并后样本集中的样本总数保持不变;所述步骤(3)进一步分为以下子步骤:(3.1)定义表情单元变化区间;每个表情单元变化区间由三个节点值确定,分别是负极限、无表情和正极限,对应的表情单元的系数分别是‑1,0和1;(3.2)用最近邻样本合并方法求中间节点;具体方法为:不断进行最近邻样本加权合并,直到样本集仅剩三个样本,此时中间样本即为表情单元变化区间的中间节点,即“无表情”节点;(3.3)用离群点剔除方法分别求出左右节点;寻找左节点,即“负极限”节点,算法步骤如下:从最左侧样本开始依次向右扫描并计数,1)若相邻样本距离大于负向样本集宽度的l%,则移除左侧样本并重新计数;2)若计数达到负向样本总数的k%,或已扫描的样本数达到m%,则终止;所述步骤(4)的具体方法为:表情单元的变化区间由三个关键节点确定,分别是gmin、grest和gmax,其中gmin是负极限,grest是无表情,gmax是正极限,当这三个节点已知后,根据几何特征值g可求得组合系数w:w={g-grestgmax-grestg≥grestg-grestgrest-gming<grest.]]>
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310642644.6/,转载请声明来源钻瓜专利网。