[发明专利]一种夜间驾驶人视觉搜索能力量化方法有效
| 申请号: | 202110138118.0 | 申请日: | 2021-02-01 |
| 公开(公告)号: | CN112949404B | 公开(公告)日: | 2022-04-19 |
| 发明(设计)人: | 王琳虹;李俊达;李洪涛;李若楠;陈宜欣;张耀胤;刘文龙;别一鸣 | 申请(专利权)人: | 吉林大学 |
| 主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/762;G06V10/84;G06V20/59;G06K9/62 |
| 代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 张换男 |
| 地址: | 130023 吉林省长春市南关区人民*** | 国省代码: | 吉林;22 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 夜间 驾驶人 视觉 搜索 能力 量化 方法 | ||
1.一种夜间驾驶人视觉搜索能力量化方法,其特征在于,所述方法具体包括以下步骤:
步骤一、分别采集M种方案下的夜间驾驶人在执行驾驶任务时的眼动数据和驾驶模拟器车辆运行数据;
所述眼动数据包括凝视点坐标、注视时长、眼动仪采集的图片和视频;
所述驾驶模拟器车辆运行数据包括车速、制动踏板开度、车辆在道路上的位置信息;
步骤二、对采集的全部凝视点进行聚类后得到凝视点的聚类结果;再根据凝视点的聚类结果和眼动仪采集视频的场景对驾驶人视野进行兴趣区域划分,得到各个兴趣区域的顶点像素坐标;
所述步骤二中,根据凝视点的聚类结果和眼动仪采集视频的场景对驾驶人视野进行兴趣区域划分,其具体过程为:
根据凝视点的聚类结果和眼动仪采集的视频的场景将驾驶人视野划分为7个区域,所述的7个区域分别为道路左外侧区域、道路左内侧区域、道路远方区域、道路正前方区域、道路右内侧区域、道路右外侧区域和仪表盘区域;
每个区域内至少包含该区域场景90%以上的凝视点,且该区域以场景的最小范围为边界;
步骤三、根据步骤一采集的数据和步骤二得到的各个兴趣区域顶点像素坐标,提取视觉搜索能力分配值量化指标;
所述视觉搜索能力分配值量化指标包括Y0、RDi、pct、π、TD和FS0;其中:Y0是眼动仪采集图片的实际亮度值,RDi为其它各个兴趣区域几何中心与第i个兴趣区域几何中心的相对距离,i=1,2,…,7,pct为目标区域的累计注视时长百分比,π为一次马尔可夫平稳分布,TD为时间距离,FS0为包含全部凝视点的凸多边形最小面积;
所述步骤三的具体过程为:
步骤三一、根据各个兴趣区域的顶点像素坐标,分别计算出各方案下眼动仪采集图片的实际亮度值;
对于某方案下眼动仪采集的图片,计算该图片中道路右外侧区域内的像素点的颜色平均值其中,为道路右外侧区域内的像素点的R通道颜色平均值,为道路右外侧区域内的像素点的G通道颜色平均值,为道路右外侧区域内的像素点的B通道颜色平均值;
并根据和计算驾驶人视野内眼动仪采集图片的YUV色彩空间Y0值:
式中,Y0是眼动仪采集图片的实际亮度值;
同理,计算出各方案下眼动仪采集图片的实际亮度值;
步骤三二、根据第i个兴趣区域的顶点像素坐标计算出第i个兴趣区域的几何中心Oi,i=1,2,…,7,并根据各个兴趣区域的几何中心,计算出其它各个兴趣区域几何中心与第i个兴趣区域几何中心的相对距离RDi;
式中,RDi为其它各个兴趣区域几何中心与第i个兴趣区域几何中心的相对距离,diθ代表第θ个兴趣区域几何中心与第i个兴趣区域几何中心的距离,θ=1,2,…,n,n的取值为7;
令定义归一化函数f(x)为:
其中,min(data)为其它各个兴趣区域几何中心与第i个兴趣区域几何中心的距离中的最小值,max(data)为其它各个兴趣区域几何中心与第i个兴趣区域几何中心的距离中的最大值;
步骤三三、分别计算出各个兴趣区域的累计注视时长,根据各个兴趣区域的累计注视时长计算目标区域的累计注视时长百分比pct;
其中:CTi为第i个兴趣区域的累计注视时长,CT为目标区域的累计注视时长,即CT为道路右外侧区域的累计注视时长;
步骤三四、根据兴趣区域划分结果,分别计算出不同方案下的一次马尔可夫平稳分布π;
其中,Aij为凝视点从第i个兴趣区域转移到第j个兴趣区域的一次转移矩阵,aij为凝视点从第i个兴趣区域转移到第j个兴趣区域的次数;
其中,pij为凝视点从第i个兴趣区域转移到第j个兴趣区域的概率;
其中,Pij为一次转移概率矩阵;
其中,π为一次马尔可夫平稳分布,
对各个方案下的凝视点分布,分别重复步骤三四的过程,即获得各方案下的一次马尔可夫平稳分布π;
步骤三五、根据制动踏板开度数据提取车辆完全制动时车头与突发事件前进方向的垂直距离L,通过当前车速v计算时间距离TD;
对各个方案均重复步骤三五的过程,分别得到各个方案下的时间距离;
步骤三六、将凝视点坐标散点图进行三角剖分后,再通过梯形积分法计算出包含全部凝视点的凸多边形最小面积FS0;
分别对各个方案下的凝视点分布重复步骤三六的过程,得到各方案下的包含全部凝视点的凸多边形最小面积;
步骤四、对Y0进行归一化,得到Y0对应的归一化后的值Y;对FS0进行标准化,得到FS0对应的标准化后的值FS0',再对FS0'进行归一化,得到FS0'对应的归一化后的值FS;
并根据车速v,利用枚举法构造速度补充系数λ;
所述步骤四中,根据车速v,利用枚举法构造速度补充系数λ;其具体过程为:
λ=αeβv
式中,e是自然对数的底数,α和β为通过枚举法得到的系数;
步骤五、利用Y、FS、RDi、λ、pct和π,并基于注意分配理论构造视觉搜索能力分配模型,得到视觉搜索能力分配值P;
所述步骤五的具体过程为:
视觉搜索能力分配模型为:
其中:P为视觉搜索能力分配值;
步骤六、对P与TD的关系进行拟合,得到P与TD的关系式;再将P代入得到的关系式中,得到P对应的值TD′;
步骤七、根据Logistics回归对步骤六中计算得到的TD'进行二分类,得到各方案下的视觉搜索能力量化值p。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110138118.0/1.html,转载请声明来源钻瓜专利网。





