[发明专利]一种基于深度神经网络的多信息融合的场景深度恢复方法有效
申请号: | 201810208334.6 | 申请日: | 2018-03-14 |
公开(公告)号: | CN108416803B | 公开(公告)日: | 2020-01-24 |
发明(设计)人: | 叶昕辰;段祥越;严倩羽;李豪杰 | 申请(专利权)人: | 大连理工大学 |
主分类号: | G06T7/50 | 分类号: | G06T7/50;G06T7/13;G06T3/40 |
代理公司: | 21200 大连理工大学专利中心 | 代理人: | 陈玲玉 |
地址: | 116024 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明为一种基于深度神经网络的多信息融合的场景深度恢复方法,属于图像处理领域。该方法采用深度卷积网络预测深度图像边界,并使用求得的边界进行指导插值求得高质量深度图。使用彩色图像辅助图像边界预测,能更好的预测在低分辨率的深度图像上不明显的边界,彩色图像辅助插值能够使得到的深度图像符合实际场景的空间结构。方法程序简单,易于实现。根据预测的边界对深度图像分块求深度信息,计算速度快,避免不同区域的深度信息的干扰,精确度高,求得的高分辨率深度图像清晰,边界锋利。 | ||
搜索关键词: | 深度图像 多信息融合 彩色图像 深度恢复 深度信息 神经网络 预测 空间结构 图像处理领域 场景 低分辨率 方法程序 辅助图像 高分辨率 实际场景 网络预测 深度图 分块 卷积 锋利 清晰 | ||
【主权项】:
1.一种基于深度神经网络的多信息融合的场景深度恢复方法,其特征在于,包括如下步骤:/n第一步,准备训练数据,包括高分辨率的彩色图像、低分辨率的深度图像和高分辨率的深度图像对应的边界图像;/n第二步,搭建边界预测网络,输入的彩色图像经过一次卷积和一个包括两个卷积的残差结构,得到彩色分支的特征图;输入的深度图像使用反卷积操作实现两次上采样,分辨率和彩色图像分辨率一样大小,每次反卷积之前经过3次卷积,其中,后两次卷积使用残差网络的结构;融合高分辨率的彩色图像的特征图之后,预测得到对应于高分辨率深度图像的边界图像;/n第三步,构建损失函数并训练网络;/n损失函数
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连理工大学,未经大连理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810208334.6/,转载请声明来源钻瓜专利网。