[发明专利]一种基于深度神经网络的多信息融合的场景深度恢复方法有效

专利信息
申请号: 201810208334.6 申请日: 2018-03-14
公开(公告)号: CN108416803B 公开(公告)日: 2020-01-24
发明(设计)人: 叶昕辰;段祥越;严倩羽;李豪杰 申请(专利权)人: 大连理工大学
主分类号: G06T7/50 分类号: G06T7/50;G06T7/13;G06T3/40
代理公司: 21200 大连理工大学专利中心 代理人: 陈玲玉
地址: 116024 辽*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明为一种基于深度神经网络的多信息融合的场景深度恢复方法,属于图像处理领域。该方法采用深度卷积网络预测深度图像边界,并使用求得的边界进行指导插值求得高质量深度图。使用彩色图像辅助图像边界预测,能更好的预测在低分辨率的深度图像上不明显的边界,彩色图像辅助插值能够使得到的深度图像符合实际场景的空间结构。方法程序简单,易于实现。根据预测的边界对深度图像分块求深度信息,计算速度快,避免不同区域的深度信息的干扰,精确度高,求得的高分辨率深度图像清晰,边界锋利。
搜索关键词: 深度图像 多信息融合 彩色图像 深度恢复 深度信息 神经网络 预测 空间结构 图像处理领域 场景 低分辨率 方法程序 辅助图像 高分辨率 实际场景 网络预测 深度图 分块 卷积 锋利 清晰
【主权项】:
1.一种基于深度神经网络的多信息融合的场景深度恢复方法,其特征在于,包括如下步骤:/n第一步,准备训练数据,包括高分辨率的彩色图像、低分辨率的深度图像和高分辨率的深度图像对应的边界图像;/n第二步,搭建边界预测网络,输入的彩色图像经过一次卷积和一个包括两个卷积的残差结构,得到彩色分支的特征图;输入的深度图像使用反卷积操作实现两次上采样,分辨率和彩色图像分辨率一样大小,每次反卷积之前经过3次卷积,其中,后两次卷积使用残差网络的结构;融合高分辨率的彩色图像的特征图之后,预测得到对应于高分辨率深度图像的边界图像;/n第三步,构建损失函数并训练网络;/n损失函数
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连理工大学,未经大连理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810208334.6/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top