[发明专利]一种基于精确定位虹膜的眼动跟踪方法无效
| 申请号: | 201310243164.2 | 申请日: | 2013-06-19 |
| 公开(公告)号: | CN103279751A | 公开(公告)日: | 2013-09-04 |
| 发明(设计)人: | 郝宗波;桑楠;黄园刚;江维 | 申请(专利权)人: | 电子科技大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/20 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 610054 四川省成*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 精确 定位 虹膜 跟踪 方法 | ||
1.一种基于精确定位虹膜的眼动跟踪方法,其特征在于:通过视频,精确定位虹膜,建立基于虹膜区域颜色及边缘联合特征的跟踪模板,根据自定义的判断标准完成眼动跟踪。
2.根据权利要求1所述的所述的一种基于精确定位虹膜的眼动跟踪方法,其特征在于:包括如下两大步骤:
(1)、通过用户提供的背景视频或者实时视频,精确定位虹膜区域;
(2)、根据精确定位虹膜完成眼动跟踪。
3.根据权利要求2所述的所述的一种基于精确定位虹膜的眼动跟踪方法,其特征在于:所述步骤(1)——通过用户提供的背景视频或者实时视频,精确定位虹膜区域进一步包括以下具体流程:
1)、加载事先录制好的眼动视频,处理每帧视频;
2)、分析一帧图像,加载基于AdaBoost算法的人脸检测器定位人脸区域;
3)、在提取到的人脸区域加载人眼检测器粗定位人眼矩形区域;
4)、在提取到的人眼区域通过消除噪声,平滑处理等操作,精确定位虹膜。
4.根据权利要求3所述的所述的一种基于精确定位虹膜的眼动跟踪方法,其特征在于:所述具体流程4)——在提取到的人眼区域通过消除噪声,平滑处理等操作,精确定位虹膜包括以下具体步骤:
①、对提取到的人眼区域进行二值化处理;
②、引入susan算子消除大部分诸如眉毛等类眼球同色点噪声的干扰;
③、扫描和分析处理后的二值图像得到连通域划分,消除非连通的区域面积较小的团块,从而进一步消除噪声的干扰;
④、使用中值滤波对得到的虹膜区域进行平滑处理,精确定位虹膜。
5.根据权利要求2所述的所述的一种基于精确定位虹膜的眼动跟踪方法,其特 征在于:所述步骤(2)——根据精确定位虹膜完成眼动跟踪进一步包括以下流程:
1)、初始化跟踪目标中心位置,建立虹膜颜色和边缘联合特征模板;
2)、预测下一帧目标中心位置,通过自定义的边缘特征标准完成眼动跟踪。
6.根据权利要求5所述的所述的一种基于精确定位虹膜的眼动跟踪方法,其特征在于:所述流程1)——初始化跟踪目标中心位置,建立虹膜颜色和边缘联合特征模板包括以下具体步骤:
①、初始化虹膜中心位置(x,y),调整跟踪框边界,模板大小、目标中心位置,如公式(1)、(2)、(3)所示。
公式(1)
其中white_num,black_num分别为二值图像目标区域的白色点、黑色点数xoright,xoleft,youp,yodown为统计空值图像矩阵中目标区域与颜色判断标准 调整模板大小及目标中心坐标为:
公式(2)
公式(3)
②、区别于建立颜色特征模板时未考虑到噪声影响的传统CamShift算法,本发明考虑到噪音影响,建立图像HSV空间S分量变化曲线图,通过分析得到噪声饱和度较低,建立s min与搜索窗口s的关系,如公式4所示。
公式(4)
③、统计搜索区域灰度直方图分布hisArray(分为N级),灰度概率分布hisPro,计算搜索区域灰度均值μ,记录直方图统计globalHis,建立虹膜颜色与边缘联合特征模板。
7.根据权利要求5所述的所述的一种基于精确定位虹膜的眼动跟踪方法,其特征在于:所述流程2)——预测下一帧目标中心位置,通过自定义的边缘特征标准完成眼动跟踪包括以下具体步骤:
①、计算搜索区域中的最大类间方差分割阈值Tmax,如公式(5)所示,并记录搜索矩阵计算边缘点均值距离 记录于数组arraydis中;
公式(5)
其中T∈(1,N-1),当θ取得最大值θmax时即为求得的分割阈值Tmax,其中hispro为灰度图像模板区域的概率分布。
②、预测跟踪目标中心位置(x,y),如公式(6)所示,并记录;
公式(6)
其中Modelw,Modelh分别为模板宽和高。
③、判断虹膜是否发生形变,即是否需要更新,判断标准为:两帧直方图统计值变化是否大于3倍边缘点标准差statusedge以及边缘点到中心点的均值距离statusdis,statusedge,statusdis计算如公式(7)所示,发生形变时根据前面LISTMAX帧目标运动规律预测目标中心位置,如公式(8)执行。
公式(7)
公式(8)
其中xpd,ypd分别为记录跟踪坐标矩阵的x,y分量。
④在搜索区域中迭代完成对跟踪目标的匹配,如公式(9)、(10)所示。
公式(9)
公式(10)
最终相似度量系数为ρfinal=ερ1+βρ2d(y),其中ε+β=1,ε,β∈[0,1]。当达到最小时迭代完成。其中,C为归一化常数,δ为Kronecker delta函数,k(x)为Epanechnikov核函数。
重复执行步骤①到步骤④,直到一段视频处理完成或者用户中断眼动跟踪。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310243164.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于结构特征的轮毂类型自动识别方法
- 下一篇:显示装置





