[发明专利]无人驾驶中红外视频转换为可见光视频的方法有效
| 申请号: | 202110814218.0 | 申请日: | 2021-07-19 |
| 公开(公告)号: | CN113691747B | 公开(公告)日: | 2022-05-17 |
| 发明(设计)人: | 李爽;刘驰;韩秉峰 | 申请(专利权)人: | 北京理工大学 |
| 主分类号: | H04N5/33 | 分类号: | H04N5/33;H04N19/107;H04N19/174;H04N7/18;G06V20/10;G06V20/40 |
| 代理公司: | 北京中海智圣知识产权代理有限公司 11282 | 代理人: | 王志东 |
| 地址: | 100081 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 无人驾驶 红外 视频 转换 可见光 方法 | ||
1.一种无人驾驶中红外视频转换为可见光视频的方法,其特征在于,包括:
步骤1,构建神经网络,其中包括:2个生成器GX和GY、2个2层的MLP作为生成器中计算互信息时的特征提取器FX和FY、2个预测器PX和PY、2个判别器DX和DY;
步骤2,以连续三帧为一个样本的方式将红外数据x0、x1、x2和可见光数据y0、y1、y2加载到网络;
步骤3,预测器PX根据红外数据输入的前2帧x0、x1预测生成红外视频第3帧计算生成的第3帧与真实第3帧x2间的L1损失和感知损失,记作预测一致性损失;
步骤4,将红外视频数据的前2帧x0、x1输入至生成器GY中获得可见光生成帧结果
步骤5,根据可见光生成帧结果和预测器PY对可见光第3帧进行预测生成,获得第3帧预测结果
步骤6,将可见光生成帧结果和第3帧预测结果输入到判别器DY中,判断生成的帧是否真实并获得对抗损失;
步骤7,将可见光生成帧结果通过生成器GX重新生成属于红外输入域的红外图像计算重新生成的视频帧与对应原始视频帧x0、x1的L1损失与感知损失,记作循环一致性损失;
步骤8,将第3帧预测结果通过生成器GX重新生成属于源输入域的红外图像计算重新生成的视频帧与原始视频帧x2的L1损失与感知损失,记作循环预测损失;
步骤9,计算目标可见光视频帧和对应的红外输入视频帧x0、x1、x2之间的InfoNCE互信息损失,获得跨域对比损失;
步骤10,根据相邻视频帧之间的互信息差异,获得同域对比损失;
步骤11,根据预测一致性损失、对抗损失、循环一致性损失、循环预测损失、跨域对比损失和同域对比损失更新生成器和判别器;
步骤12,重复步骤2至步骤11,直至迭代次数达到最大。
2.根据权利要求1所述的无人驾驶中红外视频转换为可见光视频的方法,其特征在于,步骤6中对抗损失函数如下:
LADV=∑slogDY(ys)+∑tlog(1-DY(GY(xt)))……(1),
上式(1)中:ys表示目标域视频输入序列中的第s帧,xt表示源域视频输入序列中的第t帧。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110814218.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:电子勋章生成方法、装置、设备及存储介质
- 下一篇:一种玻璃生产制造加工夹具





