[发明专利]一种应用于稀疏傅里叶叠层成像的无训练卷积神经网络相位恢复方法在审
| 申请号: | 202210013274.9 | 申请日: | 2022-01-06 |
| 公开(公告)号: | CN114386575A | 公开(公告)日: | 2022-04-22 |
| 发明(设计)人: | 姜小明;张中华;王添;冯绍玮;胡永波;冉开怀;赖春红 | 申请(专利权)人: | 重庆邮电大学 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06K9/62;G06V10/774;G06V10/42;G06V10/82;G06V10/776 |
| 代理公司: | 重庆辉腾律师事务所 50215 | 代理人: | 王海军 |
| 地址: | 400065 重*** | 国省代码: | 重庆;50 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 应用于 稀疏 傅里叶叠层 成像 训练 卷积 神经网络 相位 恢复 方法 | ||
1.一种应用于稀疏傅里叶叠层成像的无训练卷积神经网络相位恢复方法,其特征在于,包括:获取稀疏待重建的低分辨率图像序列,对低分辨率图像序列做放大插值操作,并加入随机噪声;将加入随机噪声后的低分辨率图像序列输入到深度卷积神经网络中,得到高分辨率图像的幅度和相位信息;
对深度卷积神经网络进行训练的过程包括:
S1:获取低分辨率图像序列,对低分辨率图像序列进行间隔采样,得到低分辨率子图像序列;
S2:对低分辨率子图像序列进行放大操作,将放大操作后的图像叠加随机高斯噪声;
S3:将叠加随机噪声的低分辨率子图像序列输入到深度卷积神经网络中,得到两张特征图,该特征图分别对应待重建图像的幅度和相位信息;根据待重建图像的幅度和相位信息得到待重建图像的物体信息图;
S4:根据待重建图像的物体信息图重建的低分辨率图像;
S5:根据重建后的低分辨率图像和输入的低分辨率图像构建系统损失函数;
S6:当深度卷积神经网络的损失函数收敛时,输入低分辨率序列得到重建的高分辨率图像的幅度和相位信息,完成模型的训练。
2.根据权利要求1所述的一种应用于稀疏傅里叶叠层成像的无训练卷积神经网络相位恢复方法,其特征在于,对低分辨率子图像序列进行放大操作包括:获取的低分辨图像序列数据的大小为(Nx,Ny);对低分辨率子图像序列进行放大后的图像大小为(NX,NY),其中NX=aNx,NY=aNY,a为尺度系数。
3.根据权利要求1所述的一种应用于稀疏傅里叶叠层成像的无训练卷积神经网络相位恢复方法,其特征在于,深度卷积神经网络采用U-net结构。
4.根据权利要求1所述的一种应用于稀疏傅里叶叠层成像的无训练卷积神经网络相位恢复方法,其特征在于,根据待重建图像的幅度和相位信息得到待重建图像的物体信息图公式为:
V=Aexp(jθ)
其中,V表示待重建图像的物体信息图,A表示待重建图像的幅度信息,θ表示待重建图像的相位信息。
5.根据权利要求1所述的一种应用于稀疏傅里叶叠层成像的无训练卷积神经网络相位恢复方法,其特征在于,根据待重建图像的物体信息图重建高分辨率图像包括:获取低分辨率子图像的大小和低分辨率子图像的频域中心原点坐标;对待重建图像的物体信息图进行二维傅里叶正变换;对经过二维傅里叶正变换的图像进行二维fftshift操作处理;根据低分辨率子图像的大小和低分辨率子图像的频域中心原点坐标对经过二维fftshift操作处理的特征图进行裁剪,得到与输入图像大小相同的特征图;对经过裁剪后的特征图再次进行二维fftshift操作,对再次经过二维fftshift操作的特征图进行二维傅里叶逆变换,得到重建后的特征图;采用镜头传递函数对重建后的特征图进行处理,得到重建后的高分辨率图像。
6.根据权利要求5所述的一种应用于稀疏傅里叶叠层成像的无训练卷积神经网络相位恢复方法,其特征在于,根据待重建图像的物体信息图重建高分辨率图像的公式:
其中,V表示待重建图像的物体信息图,F和F-1分别表示二维傅里叶正变换和逆变换,S表示二维fftshift操作,Crop表示图像裁剪操作,(kx,ky)表示低分辨率子图像的频域中心原点坐标,(Nx,Ny)表示低分辨率子图像的大小,表示卷积运算,LF表示镜头传递函数。
7.根据权利要求1所述的一种应用于稀疏傅里叶叠层成像的无训练卷积神经网络相位恢复方法,其特征在于,系统损失函数为:
其中,V表示待重建图像的物体信息图,N表示训练深度卷积神经网络所使用低分辨率子图像数目,Ii(V)表示重建的高分辨率图像,Ji表示输入的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210013274.9/1.html,转载请声明来源钻瓜专利网。





