[发明专利]一种基于深度神经网络的多信息融合的场景深度恢复方法有效

专利信息
申请号: 201810208334.6 申请日: 2018-03-14
公开(公告)号: CN108416803B 公开(公告)日: 2020-01-24
发明(设计)人: 叶昕辰;段祥越;严倩羽;李豪杰 申请(专利权)人: 大连理工大学
主分类号: G06T7/50 分类号: G06T7/50;G06T7/13;G06T3/40
代理公司: 21200 大连理工大学专利中心 代理人: 陈玲玉
地址: 116024 辽*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 深度图像 多信息融合 彩色图像 深度恢复 深度信息 神经网络 预测 空间结构 图像处理领域 场景 低分辨率 方法程序 辅助图像 高分辨率 实际场景 网络预测 深度图 分块 卷积 锋利 清晰
【权利要求书】:

1.一种基于深度神经网络的多信息融合的场景深度恢复方法,其特征在于,包括如下步骤:

第一步,准备训练数据,包括高分辨率的彩色图像、低分辨率的深度图像和高分辨率的深度图像对应的边界图像;

第二步,搭建边界预测网络,输入的彩色图像经过一次卷积和一个包括两个卷积的残差结构,得到彩色分支的特征图;输入的深度图像使用反卷积操作实现两次上采样,分辨率和彩色图像分辨率一样大小,每次反卷积之前经过3次卷积,其中,后两次卷积使用残差网络的结构;融合高分辨率的彩色图像的特征图之后,预测得到对应于高分辨率深度图像的边界图像;

第三步,构建损失函数并训练网络;

损失函数衡量训练数据上由彩色图像I和低分辨率深度图Dl预测的边界结果E和真实提取的边界Egt的差距;

其中,表示网络推断过程;表示2范数;网络训练过程即是在训练数据不断优化网络参数w使收敛得到最终的

第四步,预测低分辨率的深度图对应的高分辨率的场景深度图像的边界;

根据测试集上的彩色图像I和低分辨率深度图Dl,经过网络得到边界

第五步,根据彩色图像I和低分辨率深度图Dl分别进行分区域拷贝和插值得到高分辨率深度图Dh,具体包括以下步骤:

5-1)对预测的边界进行膨胀,得到平滑区域和边界区域,平滑区域直接进行深度值的拷贝得到平滑区域的深度图Dsmooth

5-2)对边界区域进行插值得到边界区域的深度图Dedge

5-2-1)对彩色图像上的相邻像素x,y之间计算高斯空间距离d

d=Gσ(Ix-Iy)

σ为高斯函数的参数,取值为0.5;d的值越大表明两个像素之间相似性越大;Ix和Iy分别表示彩色图像上x和y处的彩色值;

5-2-2)判断相邻像素x,y是否处于深度图像边界的两侧,用公式表示为1(x,y;E),表示x,y是否在E中处于边界的一侧,其中,1(·)用于判断为当前情况是否成立,成立为1反之则为0;共分为三种情况:

a)点x,y的连线与边界无重合或相交,此时成立;

b)点x,y的连线与边界相交,此时不成立;

c)点x,y的连线与边界有像素重叠,此时不成立;

5-2-3)根据以上判断,进行逐点插值;方程如下:

其中,和分别表示高分辨率深度图在x处和低分辨率深度图在y处的取值,K为归一化因子;表示在x周围的低分辨率图像上的点集合;

5-3)将上两步的结果融合一块得到最终深度结果Dh=Dsmooth+Dedge

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连理工大学,未经大连理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201810208334.6/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top