[发明专利]基于双相机的高光谱低秩张量融合计算成像方法有效
申请号: | 202110255325.4 | 申请日: | 2021-03-09 |
公开(公告)号: | CN112989593B | 公开(公告)日: | 2022-08-23 |
发明(设计)人: | 肖亮;梁正辉;汪顺清 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06F30/20 | 分类号: | G06F30/20;G06V10/762;G06V10/74;G06K9/62;G01J3/28;G06F111/04 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 陈鹏 |
地址: | 210094 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 相机 光谱 张量 融合 计算 成像 方法 | ||
1.一种基于双相机的高光谱低秩张量融合计算成像方法,其特征在于,包括以下步骤:
建立压缩光谱测量装置,获取压缩测量光谱数据;
采取全色相机装置,获取全色图像;
构造两路数据感知的前向测量算子,包括光谱感知光路前向测量算子和全色感知光路前向测量算子;
构造光谱感知光路前向测量算子方法为:将目标场景的高光谱图像表示为M,N和L分别表示高、宽和光谱模式的大小,则高光谱图像上任意一点的像素值为x(i,j,λ),满足1≤i≤M,1≤j≤N和1≤λ≤L,其中i和j表示空间坐标大小,λ表示光谱坐标大小,压缩光谱测量装置的数学模型可表示为:
其中,Gc(i,j)是在探测器位置(i,j)上的强度,Rc(λ)表示该探测器的光谱响应函数,T(i,j)表示编码孔径的传播函数,S(λ)表示由色散棱镜引起的偏移函数;因此,光谱压缩测量模型可建立为
其中,为压缩测量数据,Φc表示光谱感知前向测量算子,νc表示高斯白噪声;
构造融合计算成像保真约束;具体为:
其中:G=[Gc;Gp],Φ=[Φc;Φp]和ν=[νc;νp];Φ为双光路数据感知的前向测量算子;
构造全色感知光路前向测量算子方法为:全色相机光路中,没有编码孔径和色散棱镜的影响,其数学模型表示为
式中,Gp(i,j)表示全色图像中像素点(i,j)的强度,Rp(λ)为探测器的光谱响应函数,则建立全色感知光路的观测模型为:
其中,表示全色图像,Φp表示全色感知光路前向测量算子,νp表示高斯白噪声;
构造非局部高光谱张量低秩约束,即结合全色图像非局部相似性,构造非局部高光谱图像块的4阶张量队列秩约束;具体流程为:
1)将全色图像Gp从空间上划分为大小为sM×sN的二维图像块,取sM=sN,范围为sM∈[5,10],图像块与图像块之间选择适当的重叠大小Δ,4≤Δ≤8;
2)采用K-means算法将相似的二维图像块分成K个聚类其中Nk是第k个聚类的数量;
3)基于聚类结果,构建具有相同空间结构的高光谱图像块的编组,即其中的空间位置与相同,sM×sN×L为三维立方块的大小;
4)在第k聚类的高光谱图像立方块能构成一个4阶张量它有高、宽、光谱、非局部四个模式;
5)的张量队列秩包含了沿着三个模式的展开矩阵和的秩,其中是的模式-t矩阵展开;矩阵的秩能够捕获两个空间模式和其它两个模式之间的相关性;矩阵的秩能够表示前三个模式和非局部模式的相关性;
建立自适应非局部低秩张量正则化模型;所述自适应非局部低秩张量正则化模型包含两项:数据保真项和非局部低秩张量约束项,其具体模型为:
其中,运算符表示Frobenius范数,τ为正则化参数;共包含K个四阶张量表示矩阵的第i大的奇异值,ε是接近于0的正数;由于不同模式的展开矩阵的低秩程度不同,可设计如下自适应权重
其中Ij表示张量的第j模式的维度大小;
交替方向乘子法迭代优化求解,输出计算成像结果;所述交替方向乘子法迭代优化求解的方法为:
1)建立增广拉格朗日函数,即引入三个辅助变量和其自适应非局部低秩张量正则化模型对应的增广拉格朗日函数:
其中,μ>0为惩罚参数,和为拉格朗日乘子,和分别是的模-1,的模-2和的模-3的矩阵展开;
2)对该增广拉格朗日问题能通过交替方向乘子法迭代求解,最终输出计算成像结果。
2.根据权利要求1所述的基于双相机的高光谱低秩张量融合计算成像方法,其特征在于,所述的压缩光谱测量装置主要由物镜、带通滤波器、编码孔径、色散棱镜、中继镜和探测器组成,该光路信号先经过随机伯努利矩阵的编码孔径的编码;通过带通滤波器进行滤波,限制光谱的范围;编码和滤波后的图像经由中继镜传播到色散棱镜后,不同波段的图像会沿着水平方向作不同程度的偏移;最后,所有波段的图像在探测器上进行叠加,得到二维的压缩光谱测量数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110255325.4/1.html,转载请声明来源钻瓜专利网。