[发明专利]驾驶员视觉显著区域检测方法、装置和计算机设备有效
| 申请号: | 202110141753.4 | 申请日: | 2021-02-02 | 
| 公开(公告)号: | CN112883843B | 公开(公告)日: | 2022-06-03 | 
| 发明(设计)人: | 聂冰冰;甘顺 | 申请(专利权)人: | 清华大学 | 
| 主分类号: | G06V20/56 | 分类号: | G06V20/56;G06V10/25;G06V10/80;G06V10/82;G06K9/62;G06N3/04 | 
| 代理公司: | 北京华进京联知识产权代理有限公司 11606 | 代理人: | 魏朋 | 
| 地址: | 10008*** | 国省代码: | 北京;11 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 驾驶员 视觉 显著 区域 检测 方法 装置 计算机 设备 | ||
1.一种驾驶员视觉显著区域检测方法,其特征在于,所述方法包括:
获取车载摄像机拍摄的待检测图像;
对所述待检测图像进行编码,并通过注意力机制,获取所述待检测图像在空间维度和通道维度融合后的图像特征;
获取所述待检测图像对应的领域自适应模型;所述领域自适应模型与驾驶员标记信息对应;
将所述图像特征输入所述领域自适应模型,通过所述领域自适应模型中的自适应标准化模型,对所述图像特征进行自适应标准化处理,得到标准化图像特征,所述自适应标准化模型用于针对不同数据源的图像输入分别建立标准化特征处理流程;
通过所述领域自适应模型中的自适应先验模型,对所述标准化图像特征定义多组二维高斯分布函数表征数据集的空间领域偏差,并通过网络训练实现高斯先验分布参数的自适应优化,得到先验图像特征;
对所述先验图像特征进行解码,输出所述待检测图像的视觉显著区域;
通过预设的视觉感知模型,检测所述待检测图像中的危险区域;
获取所述危险区域与所述视觉显著区域的重合率;
检测所述重合率与预设阈值之间的大小;
当所述重合率小于所述预设阈值时,生成避撞方案或警示信息中的至少一种;
其中,所述对所述待检测图像进行编码,并通过注意力机制,获取所述待检测图像在空间维度和通道维度融合后的图像特征,包括:
获取包括所述注意力机制的编码网络模型;其中,所述注意力机制包括通道注意力机制和空间注意力机制;将所述待检测图像输入编码网络模型,通过所述编码网络模型对所述待检测图像进行编码,得到所述待检测图像对应的第一图像特征;通过所述编码网络模型中的通道注意力机制,获取所述第一图像特征中的通道域特征,得到第二图像特征;通过所述空间注意力机制,获取所述第二图像特征中的空间域特征,输出所述图像特征;所述空间注意力机制的总体计算框架包括:通过MS(F)运算对输入特征进行操作后,乘以预设系数与所述输入特征进行残差连接,所述MS(F)运算包括:所述输入特征通过两组1x1卷积模块,将经过第一组卷积模块处理后的所述输入特征进行转置后与经过第二组卷积模块处理后的输入特征相乘,将所述相乘后的输入特征对应数据变维成通道数与高宽积的二维数据,以得到处理后的特征,再通过softmax运算将所述处理后的特征映射到[0,1]区间后进行转置得到转置结果,最后将经过第三组1x1卷积模块和变维操作的所述输入特征与所述转置结果相乘得到空间特征权重系数矩阵MS(F)。
2.根据权利要求1所述的方法,其特征在于,对所述先验图像特征进行解码,输出所述视觉显著区域,包括:
对所述先验图像特征进行解码,得到第一视觉显著区域;
通过所述自适应标准化模型,对所述第一视觉显著区域进行自适应标准化处理,得到第二视觉显著区域;
通过所述领域自适应模型中的自适应平滑模型,对所述第二视觉显著区域进行自适应平滑处理,输出所述视觉显著区域。
3.根据权利要求2所述的方法,其特征在于,所述获取车载摄像机拍摄的待检测图像之前,包括:
按照预设时间间隔,获取所述待检测图像对应的至少一个待检测图像,得到待检测图像时序集合;其中,每一所述待检测图像对应一个先验图像特征,所述待检测图像时序集合对应一组先验图像特征时序集合。
4.根据权利要求3所述的方法,其特征在于,所述对所述先验图像特征进行解码,得到第一视觉显著区域之前,包括:
获取循环神经网络模型;
将每一所述待检测图像对应的先验图像特征输入所述循环神经网络模型,对每一所述待检测图像对应的先验图像特征进行更新,得到至少一个所述先验图像特征,所述至少一个所述先验图像特征形成所述先验图像特征时序集合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110141753.4/1.html,转载请声明来源钻瓜专利网。





