[发明专利]一种基于头部姿态的双区域眼动跟踪方法有效
申请号: | 202110439185.6 | 申请日: | 2021-04-23 |
公开(公告)号: | CN113128417B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 段峰;王永晨 | 申请(专利权)人: | 南开大学 |
主分类号: | G06V40/18 | 分类号: | G06V40/18;G06V10/764;G06V40/20;G06V40/16;G06T7/246;G06T7/80 |
代理公司: | 合肥晨创知识产权代理事务所(普通合伙) 34162 | 代理人: | 康培培 |
地址: | 300000*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 头部 姿态 区域 跟踪 方法 | ||
本发明属于计算机视觉和眼动跟踪技术领域,更具体地,涉及一种基于头部姿态的双区域眼动跟踪方法。通过对用户头部姿态进行检测,快速识别出其视线朝向并更换眼动跟踪仪的标定参数,从而使屏幕式眼动仪快速有效地跟踪用户在“竖直”或“水平”方向的显示器上的注视点,从而可以获得用户在上述两个区域内的注视点坐标和视线轨迹。本发明的创新点在于,通过识别用户头部姿态进行检测,拓展了屏幕式眼动仪的跟踪区域。
技术领域
本发明属于计算机视觉和眼动跟踪技术领域,更具体地,涉及一种基于头部姿态的双区域眼动跟踪方法。
背景技术
眼动跟踪是一种新颖的人机交互方法,通过专业的眼动跟踪设备可以获取用户的瞳孔信息、注视点坐标以及用户的眼动行为数据。对上述眼动数据进行分析,既可以作为实时交互的控制信号实现人机交互的简单应用,也可以分析得到眼动数据中用户的感兴趣区域、分析用户的行为和心理。屏幕式眼动仪是一种常见的眼动跟踪设备,通过标定之后,它可以比较好地跟踪用户在电脑屏幕上的二维注视点,但它一般只能满足一块二维区域内的注视点跟踪需求。由于水平姿态的显示界面更加符合人的阅读和书写姿态,出现了一批使用水平或接近水平姿态屏幕的多媒体设备,如Puppy cube触控投影仪、微软SurfaceStudio,如果能够在有夹角的两个区域内实现无缝衔接的注视点跟踪,那么眼动跟踪技术将会为水平姿态显示器和投影仪等设备提供极具竞争优势的交互式人机体验。另外,在许多场合中,单一屏幕显示无法满足人们的需要,例如在证券交易所、商场监控部门、快餐厅的点取餐柜台都使用了多块显示屏幕。如果可以扩展眼动仪的跟踪范围,未来有助于实现基于用户注视点跟踪的多屏人机互动、特定信息展示等应用。因此本发明提出的一种兼顾水平区域和竖直区域的眼动跟踪方法具有一定的研究价值和应用前景。
发明内容
为此,本发明提出一种基于头部姿态的双区域眼动跟踪方法,该发明的内容是通过对用户头部姿态进行检测,快速识别出其视线朝向并更换眼动跟踪仪的标定参数,使屏幕式眼动仪快速有效地跟踪用户在“竖直”或“水平”方向的显示器上的注视点,从而可以获得用户在上述两个区域内的注视点坐标和视线轨迹。本发明的创新点在于,通过识别用户头部姿态进行检测,拓展了屏幕式眼动仪的跟踪区域。
为实现上述目的,本发明采用如下技术方案:
一种基于头部姿态的双区域眼动跟踪方法,包括以下步骤,
步骤S1,显示屏D1上显示标定点C1,C2,…,Cn,用户注视D1上标定点并进行眼动仪的标定,同时摄像头拍摄用户注视各个标定点时的面部图像,标定完成后,导出眼动仪的标定参数CP1;
步骤S2,处理所述步骤S1中摄像头拍摄的图像,并识别出图像中用户的头部姿态角数据集X1;
步骤S3,显示屏D2上显示标定点C1’,C2’,…,Cn’,用户注视D2上的标定点并进行眼动仪的标定,同时使用摄像头拍摄用户注视各个标定点时的面部图像,标定完成后,导出眼动仪的标定参数CP2;
步骤S4,处理所述步骤S3中摄像头拍摄的图像,并识别出图像中用户的头部姿态角数据集X2;
步骤S5,将步骤S2和步骤S4中头部姿态角数据集放入SVM模型中训练,得到视线朝向预测模型;
步骤S6,摄像头拍摄用户图像,识别头部姿态角并输入训练好的SVM模型,预测出用户的视线朝向,从而使用相应的标定参数,得到用户在相应屏幕上的注视点坐标。
本技术方案进一步的优化,所述显示屏D1和D2面向用户的夹角范围为[90°,180°]。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南开大学,未经南开大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110439185.6/2.html,转载请声明来源钻瓜专利网。