[发明专利]基于结构光和深度学习的单曝光超分辨率成像方法及装置有效
| 申请号: | 201910697301.7 | 申请日: | 2019-07-30 |
| 公开(公告)号: | CN110415201B | 公开(公告)日: | 2022-03-22 |
| 发明(设计)人: | 边丽蘅;李道钰;张军;曹先彬 | 申请(专利权)人: | 北京理工大学 |
| 主分类号: | G06T5/50 | 分类号: | G06T5/50 |
| 代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 王艳斌 |
| 地址: | 100081 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 结构 光和 深度 学习 曝光 分辨率 成像 方法 装置 | ||
1.一种基于结构光和深度学习的单曝光超分辨率成像方法,其特征在于,包括以下步骤:
S1,对多个不同传统照明编码进行叠加生成复合结构光照明编码,其中,所述多个不同传统照明编码包括:正弦函数编码,和/或非线性荧光编码,和/或随机编码;通过对所述多个不同传统照明编码的空域叠加得到所述复合结构光照明编码,所述复合结构光照明编码的傅里叶空间频谱为所述多个不同传统照明编码频谱的叠加;
S2,采集待处理目标场景在所述复合结构光照明编码单次曝光下生成的低分辨率图像;
S3,将所述低分辨率图像输入预设成像模型进行处理,输出所述待处理目标场景对应的超分辨率图像。
2.根据权利要求1所述的方法,其特征在于,步骤S2之前,还包括:
采集训练场景在所述复合结构光照明编码单次曝光下生成的低分辨率图像训练样本;
将所述低分辨率图像训练样本在预设深度神经网络模型中进行训练;
若训练结果与所述训练场景的高分辨率图像样本之间的误差值小于预设阈值,则将训练的所述预设深度神经网络模型设置为所述预设成像模型;
若所述训练结果与所述训练场景的高分辨率图像样本之间的误差值大于等于预设阈值,则根据误差值来更新所述预设深度神经网络的参数并将所述低分辨率图像训练样本输入到更新后的预设深度神经网络模型再进行训练。
3.根据权利要求2所述的方法,其特征在于,
所述预设深度神经网络模型为卷积神经网络模型,将采集的所述低分辨率图像训练样本输入所述预设深度神经网络模型进行训练;
通过所述预设深度神经网络模型后的输出为输出高分辨率图像,将输出高分辨率图像与所述训练场景的高分辨率图像样本进行对比得到误差值;
若误差值小于预设阈值,则将训练的所述预设深度神经网络模型设置为所述预设成像模型;
若误差值大于等于预设阈值,则根据误差值来更新所述预设深度神经网络的参数并将所述低分辨率图像训练样本输入到所述更新后的预设深度神经网络模型再进行训练。
4.根据权利要求2所述的方法,其特征在于,
所述预设深度神经网络模型为生成对抗网络模型;
所述生成对抗网络模型包括生成模型和判别模型,所述生成模型将所述低分辨率图像训练样本作为输入,输出为输出高分辨率图像,所述生成模型将输出高分辨率图像与所述训练场景的高分辨率图像样本进行对比生成模型误差值;
所述判别模型将输出高分辨率图像与所述训练场景的高分辨率图像样本进行对比生成判别模型误差值;
将所述生成模型误差值和所述判别模型误差值加权相加生成训练模型误差值;
若所述训练模型误差值小于预设阈值,则将训练的所述预设深度神经网络模型设置为所述预设成像模型;
若所述训练模型误差值大于等于预设阈值,则根据所述训练模型误差值更新所述预设深度神经网络的参数并将所述低分辨率图像训练样本输入到所述更新后的预设深度神经网络模型再进行训练。
5.根据权利要求1所述的方法,其特征在于,
通过光学系统采集所述低分辨率图像和所述低分辨率图像训练样本。
6.一种基于结构光和深度学习的单曝光超分辨率成像装置,其特征在于,包括:
构造模块,用于对多个不同传统照明编码进行叠加生成复合结构光照明编码,其中,所述多个不同传统照明编码包括:正弦函数编码,和/或非线性荧光编码,和/或随机编码;通过对所述多个不同传统照明编码的空域叠加得到所述复合结构光照明编码,所述复合结构光照明编码的傅里叶空间频谱为所述多个不同传统照明编码频谱的叠加;
第一采集模块,用于采集待处理目标场景在所述复合结构光照明编码单次曝光下生成的低分辨率图像;
输出模块,用于将所述低分辨率图像输入预设成像模型进行处理,输出所述待处理目标场景对应的超分辨率图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910697301.7/1.html,转载请声明来源钻瓜专利网。





