[发明专利]一种基于深度学习的多目标场景偏振三维成像方法在审
| 申请号: | 202210135322.1 | 申请日: | 2022-02-14 |
| 公开(公告)号: | CN114663578A | 公开(公告)日: | 2022-06-24 |
| 发明(设计)人: | 李轩;宋家伟;邵晓鹏;刘飞;杨奎;蔡玉栋;张仕超;闫明宇;冯怡 | 申请(专利权)人: | 西安电子科技大学杭州研究院;西安电子科技大学 |
| 主分类号: | G06T17/00 | 分类号: | G06T17/00;G06N3/08 |
| 代理公司: | 西安嘉思特知识产权代理事务所(普通合伙) 61230 | 代理人: | 刘长春 |
| 地址: | 311231 浙江省杭州*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 学习 多目标 场景 偏振 三维 成像 方法 | ||
1.一种基于深度学习的多目标场景偏振三维成像方法,其特征在于,包括:
S1:利用偏振三维成像系统获取多目标场景不同偏振角度的场景图像;
S2:构建神经网络,所述神经网络包括清晰化网络模块和模糊距离估计网络模块,其中,所述清晰化网络模块用于对输入的阈值分割后的偏振图像中不同物距处目标进行清晰化重建,获得清晰图像,所述模糊距离估计网络模块用于将所述模糊图像与清晰图像之间的映射关系作为多目标场景中的先验信息进行目标距离估计,获得不同目标与相机之间距离的估计值;
S3:对所述神经网络中的清晰化网络模块和模糊距离估计网络模块分别进行训练,获得经训练的神经网络模型;
S4:利用所述经训练的神经网络模型获得多目标场景不同偏振角度的场景图像中不同的目标的深度估计结果和清晰目标图像,识别不同目标物体;
S5:获取所述不同目标物体表面的偏振度,以及不同目标物体表面入射光的方位角和入射角;
S6:对多目标偏振三维成像场景中偏振求解得到的法向量进行校正,获得校正后的方位角信息;
S7:利用不同目标的方位角和入射角信息,实现多目标场景下物体表面三维轮廓的重建。
2.根据权利要求1所述的基于深度学习的多目标场景偏振三维成像方法,其特征在于,所述S1包括:
S11:利用所述偏振三维成像系统获得所述多目标复杂场景中目标物体表面的反射光,分别获取0°,45°,90°和135°四个角度下物体场景的原始偏振图像I′0、I′45、I′90、I′135;
S12:利用阈值分割算法对所述原始偏振图像I′0、I′45、I′90、I′135中的物体和背景进行分割,获得阈值分割后的偏振图像I0、I45、I90、I135。
3.根据权利要求1所述的基于深度学习的多目标场景偏振三维成像方法,其特征在于,所述清晰化网络模块包括相互连接的编码单元和解码单元,用于通过引入模糊边缘注意力机制对输入的模糊图像进行编码-解码过程,实现对所述模糊图像中的模糊目标区域进行清晰化重建。
4.根据权利要求3所述的基于深度学习的多目标场景偏振三维成像方法,其特征在于,所述神经网络模型的损失函数包括所述清晰化网络模块的损失函数和所述模糊距离估计网络模块的损失函数,其中,所述清晰化网络模块的损失函数为:
其中,N表示输入的真实模糊图像的数目,α表示调整L1损失的权重值,SSIM(Mf,M)表示输入的真实模糊图像M与清晰化网络模块最终输出的清晰图像Mf的结构相似度结果;
所述模糊距离估计网络模块的损失函数为:
其中,表示所述清晰化网络模块中提供的先验信息在第k级条件下的输出结果,β为系数,表示经过所述模糊距离估计网络模块的最终融合图像,表示图像I经过所述清晰化网络模块第k级的输出结果,Φrd(I)表示图像I经过所述模糊距离估计网络模块的输出结果,║ ║2表示求二范数。
5.根据权利要求3所述的基于深度学习的多目标场景偏振三维成像方法,其特征在于,所述S3包括:
S31:获取第一训练数据集,所述第一训练数据集用于对所述清晰化网络模块进行训练,所述第一训练数据集中包括具有不同模糊程度的多张目标图像;
S32:利用所述第一训练数据集对所述清晰化网络模块进行训练;
S33:获得第二训练数据集,所述第二训练数据集用于对所述模糊距离估计网络模块进行训练,其中,所述第二训练数据集包括具有不同物距的多张目标图像;
S34:利用所述第二训练数据集对所述模糊距离估计网络模块进行训练,进而获得经训练的神经网络模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学杭州研究院;西安电子科技大学,未经西安电子科技大学杭州研究院;西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210135322.1/1.html,转载请声明来源钻瓜专利网。





