[发明专利]一种基于卷积神经网络的室内单目场景深度估计的方法有效
| 申请号: | 201911073281.2 | 申请日: | 2019-11-05 |
| 公开(公告)号: | CN110992414B | 公开(公告)日: | 2023-06-30 |
| 发明(设计)人: | 梁煜;张金铭;张为 | 申请(专利权)人: | 天津大学 |
| 主分类号: | G06T7/50 | 分类号: | G06T7/50 |
| 代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 程毓英 |
| 地址: | 300072*** | 国省代码: | 天津;12 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 卷积 神经网络 室内 场景 深度 估计 方法 | ||
本发明涉及一种基于卷积神经网络的室内场景深度估计的方法,包括下列步骤:第一步,构建带有标注和标签的图片数据库;第二步,训练一个深度卷积神经网络:利用所得的数据集,利用全卷积通道注意力网络(Full Convolutional Squeeze‑and‑Excitation Net)和全卷积残差网络的基本原理,设计一种网络结构,采用编码器解码器架构,将改进的注意力模块放入编码器中,将改进的上采样模块放入解码器中,从而得到最佳的精度;第三步,使用L1损失函数对网络模型进行优化;第四步,图像深度估计。
技术领域
本发明属于深度估计领域,涉及一种利用深度卷积神经网络的室内单目场景深度估计的方法。
背景技术
在计算机视觉领域中,深度估计有着重要的研究意义。早期的工作重点是通过开发几何约束的算法,从立体图像中估计深度,这些算法依靠图像和三角测量之间的点的对应关系来估计深度。在单视图情况下,大多数方法依赖于运动或不同的拍摄条件(不同的拍摄角度等)。尽管缺乏几何约束这类信息会导致深度图产生一定的模糊度,但受人类单眼对深度感知的类比启发,对单个RGB图像的深度图预测也进行了研究。
在某些深度不可知的情况下深度估计十分必要。比如着火点距离的测量:如果当某一场地发生火灾时,监控人员没有发现火点或者消防人员不能及时赶到的时候,就十分需要能够得到着火点距离的信息,然后直接控制消防栓等其他灭火工具进行灭火。而且火灾是无法控制的,早期的小火苗十分容易熄灭,但如果无人发现,过了一段时间可能就会引发火灾,使人们的财产收到十分严重的损失。虽然比较成熟的测距技术,比如,红外测距、双目测距等等。这些方法的弊端由:红外测距仍需要人来进行测,在这样的情况下,着火点测距没有实际意义,而且红外测距仪价格十分昂贵;双目测距是利用双目摄像头,但现在大部分公共场所等架设的都是普通摄像头,而非双目摄像头,双目测距暂时不能普及到很多场所。另外同户外场景相比,室内场景通常缺少显著的局部或全局视觉特征,但是深度估计标签又具有信息密度大,细节繁杂等问题,因此,单目室内场景的深度估计具有十分重要的意义。
目前已有的一些单目图像深度估计方法往往采用大量的卷积和池化操作,在不断下采样的过程中丢失了大量的细节信息,深度估计后的效果难以达到使用标准,导致深度图像过于平滑且不清晰,估计精度不高。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于深度卷积网络的但墓室内场景深度估计的方法,以增强深度图像清晰度,提高图像深度估计的精确度。技术方案如下:
一种基于卷积神经网络的室内场景深度估计的方法,包括下列步骤:
第一步,构建带有标注和标签的图片数据库:挑选室内场景的图片,并对其进行标注,构建符合格式要求、匹配网络结构的数据集。
第二步,训练一个深度卷积神经网络:利用所得的数据集,利用全卷积通道注意力网络(Full Convolutional Squeeze-and-Excitation Net)和全卷积残差网络的基本原理,设计一种网络结构,采用编码器解码器架构,将改进的注意力模块放入编码器中,将改进的上采样模块放入解码器中,从而得到最佳的精度;方法如下:
(1)训练编码器时,编码器由卷积层和FCSE1,FCSE2,FCSE3和FCSE4四个块构成,结构设计为下采样卷积层1,由2个注意力模块叠加形成的FCSE1,下采样卷积层2,由3个注意力模块叠加形成的FCSE2,下采样卷积层3,由4个注意力模块叠加形成的FCSE3,下采样卷积层4,由1个注意力模块叠加形成的FCSE4。首先对注意力通道网络进行修改,修改后的四个FCSE块用来提取图像特征,用卷积层代替其中的全连接层,实现段对端的训练。卷积层中卷积核的尺寸是3×3、步长为1;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911073281.2/2.html,转载请声明来源钻瓜专利网。





