[发明专利]基于帧间相关性的单目深度估计方法及系统在审
申请号: | 202210641767.7 | 申请日: | 2022-06-08 |
公开(公告)号: | CN115035173A | 公开(公告)日: | 2022-09-09 |
发明(设计)人: | 李帅;周华松;高艳博;徐宏伟;元辉;蔡珣 | 申请(专利权)人: | 山东大学;山东大学威海工业技术研究院 |
主分类号: | G06T7/50 | 分类号: | G06T7/50;G06V10/774;G06V10/80;G06V10/82;G06N3/04 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 闫圣娟 |
地址: | 250061 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 相关性 深度 估计 方法 系统 | ||
1.基于帧间相关性的单目深度估计方法,其特征在于,包括如下过程:
通过构建的深度估计网络对获取的当前帧图像进行处理,得到多尺度的深度特征,以及当前帧图像与上一帧图像的相机变换姿态;
构建卷积-独立循环神经网络,将多尺度的深度特征作为输入,提取当前帧图像的深度特征,并提取当前帧图像与下一帧图像的帧间相关性;
根据上一帧图像处理过程中独立循环神经网络提取的帧间相关性,上一帧图像处理后得到的深度图,以及当前帧图像与上一帧图像的相机变换姿态变换,将前一时刻帧的独立循环网络隐藏层状态映射为与当前时刻一致的隐藏层状态,根据映射后的状态对当前帧图像的深度特征进行增强,得到增强后的深度特征;
将增强后的深度特征进行解码,得到当前帧图像的深度图;
循环执行上述过程得到连续帧图像每一帧图像对应的深度图。
2.如权利要求1所述的基于帧间相关性的单目深度估计方法,其特征在于:深度估计网络包括姿态变换网络和深度估计网络;
深度估计网络被配置为用于提取多尺度的深度特征,姿态变换网络被配置为用于提取对应不同时刻的相机变换姿态。
3.如权利要求2所述的基于帧间相关性的单目深度估计方法,其特征在于:
深度估计网络包括依次连接的深度编码器以及深度解码器,以及上采样模块,上采样模块连接深度编码器每一级以及深度解码器的每一级;
或者,姿态变化网络和深度估计网络采用特征提取网络共享的方式;
或者,姿态变换网络包括特征提取网络以及卷积网络,特征提取网络为残差网络,卷积网络包括多个级联的卷积层。
4.如权利要求3所述的基于帧间相关性的单目深度估计方法,其特征在于:构建的整体网络模型,包括姿态变换网络和深度估计网络,深度估计网络的深度编码器与深度解码器之间设置有卷积-独立循环神经网络,用于获取帧间相关性对每帧图像编码后的特征进行特征增强。
5.如权利要求4所述的基于帧间相关性的单目深度估计方法,其特征在于:
还包括整体网络模型进行训练的方法,包括如下步骤:
构建训练集,训练集包括多帧图像,上一帧图像作为当前帧图像的源帧图像进行训练;
设置卷积-独立循环网络的初始隐藏层状态,利用深度编码器对源帧It-1进行特征提取,获得源帧的多尺度深度特征ft-1;
将源帧的多尺度深度原始特征ft-1分别输入到卷积-独立循环网络中,更新隐藏层状态ht-1和输出多尺度深度特征f′t-1;
利用深度解码器对多尺度增强的深度特征f′t-1进行解码,获得源帧的深度图Dt-1;
利用深度解码器对当前目标帧It进行特征提取,获得目标帧的多尺度原始深度特征ft;
利用姿态估计网络预测出的目标帧和源帧相机姿态变化Tt→s和源帧的深度图Dt-1实现隐藏层状态的映射h′t-1;
将目标帧多尺度原始深度特征ft与压缩后源帧多尺度深度特征ft-1拼接后输入到卷积-独立循环网络中,利用映射后的隐藏层状态h′t-1来更新隐藏层状态ht和输出目标帧多尺度增强的深度特征f′t;
利用深度解码器对多尺度增强的深度特征f′t进行解码,获得目标帧的深度图Dt;
利用姿态估计网络预测出的目标帧和源帧相机姿态变化Tt→s和目标帧的深度图Dt实现源帧IS重建目标帧It来提供网络训练的监督信号,构建损失函数L,用L进行监督,计算损失函数L的值达到设定的数值或者达到设定的训练次数,训练结束,确定模型参数,得到训练后的网络模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东大学;山东大学威海工业技术研究院,未经山东大学;山东大学威海工业技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210641767.7/1.html,转载请声明来源钻瓜专利网。