[发明专利]一种基于眼动追踪的目标跟踪方法、系统及存储介质有效
申请号: | 202110498486.6 | 申请日: | 2021-05-08 |
公开(公告)号: | CN113255476B | 公开(公告)日: | 2023-05-19 |
发明(设计)人: | 彭进业;邓乐玲;赵万青;李斌;彭先霖;胡琦瑶;张晓丹;王珺 | 申请(专利权)人: | 西北大学 |
主分类号: | G06V40/18 | 分类号: | G06V40/18;G06V40/19;G06V10/764 |
代理公司: | 西安恒泰知识产权代理事务所 61216 | 代理人: | 史玫 |
地址: | 710069 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 追踪 目标 跟踪 方法 系统 存储 介质 | ||
1.一种基于眼动追踪的目标检测方法,其特征在于,该方法包括以下步骤:
步骤1,采集同一人的人眼区域视频流It和人眼所能看到的前景视频流Gt;
步骤2,采用瞳孔中心检测方法识别人眼区域视频流It中每一帧的瞳孔中心坐标;
步骤3,采用YOLO目标检测方法获取人眼所能看到的前景视频流Gt中每一帧的目标检测信息,每一帧的目标检测信息包括该帧中的所有目标、各目标的预测位置坐标、各目标的预测位置中心点、各目标的预测类别和各目标属于预测类别的置信度;
步骤4,将步骤2所得每一帧瞳孔中心坐标映射至前景视频流中,得到每一帧瞳孔中心坐标在前景视频流中的中心视觉区域,每一帧瞳孔中心坐标在前景视频流中的中心视觉区域包括中心点坐标和中心视觉区域半径,其中,采用水平垂直方向注视跟踪算法计算每一帧中心视觉区域的中心点坐标,中心视觉区域半径采用式(1)计算;
式(1)中:
R为任一帧的中心视觉区域的半径;
pr°为人眼中央凹视觉范围;
xt为所述任一帧的瞳孔中心的水平坐标,yt为所述任一帧的瞳孔中心的垂直坐标;
Xt为所述任一帧的中心视觉区域中心点的水平坐标,Yt为所述任一帧的中心视觉区域中心点的垂直坐标;
α为拍摄前景视频流Gt的第一摄像头水平分辨率与拍摄人眼区域视频流It的第二摄像头水平分辨率的比值;ω为拍摄前景视频流Gt的第一摄像头垂直分辨率与拍摄人眼区域视频流It的第二摄像头垂直分辨率的比值;
Dis为第一摄像头与第二摄像头之间的像素距离;
步骤5,计算人眼所能看到的前景视频流Gt中每一帧中各目标的判断因子,将每一帧中判断因子最大的目标作为人眼感兴趣目标;其中Gt中任一帧任一目标的判断因子DBIOU采用式(2)计算;
DBIOU=DIOU+β*CF (2)
式(2)中:
IOU为该任一目标的位置坐标与该任一目标所在帧对应的中心视觉区域的交并比;
ρ为bfv与HG'(Xt,Yt)之间的欧式距离,bfv为该任一目标的预测位置的中心点,HG'(Xt,Yt)为该任一帧的中心视觉区域的中心点坐标,Xt为所述任一帧的中心视觉区域中心点的水平坐标,Yt为所述任一帧的中心视觉区域中心点的垂直坐标;
q为同时包含该任一目标预测位置和该任一目标所在帧对应的中心视觉区域的最小闭包区域的对角距离;
β为参数,取值范围为:0.2-0.4;
CF为该任一目标属于预测类别的置信度。
2.如权利要求1所述的基于眼动追踪的目标检测方法,其特征在于,步骤2中首先采用金字塔LK光流法对人眼区域视频流It中相邻帧的眼部运动状态进行估计后再进行瞳孔中心检测,对于处于眼颤状态帧和眨眼状态帧直接沿用各自上一帧的瞳孔中心坐标。
3.如权利要求1所述的基于眼动追踪的目标检测方法,其特征在于,步骤3中采用YOLOV4目标检测方法获取人眼所能看到的前景视频流Gt中每一帧的目标检测信息。
4.如权利要求1所述的基于眼动追踪的目标检测方法,其特征在于,步骤3中采用感知哈希算法对前景视频流Gt的每一帧进行处理,生成每一帧的指纹字符串,之后比较相邻帧的指纹字符串信息,对于指纹字符串信息相似的帧,直接沿用上一帧的目标检测信息。
5.如权利要求1所述的基于眼动追踪的目标检测方法,其特征在于,pr°=5°。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北大学,未经西北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110498486.6/1.html,转载请声明来源钻瓜专利网。