[发明专利]自监督和有监督联合训练的LDCT图像去噪与分类方法有效

专利信息
申请号: 202110686474.6 申请日: 2021-06-21
公开(公告)号: CN113538260B 公开(公告)日: 2022-04-12
发明(设计)人: 单洪明;雷一鸣;张军平 申请(专利权)人: 复旦大学
主分类号: G06T5/00 分类号: G06T5/00;G06T11/00;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08
代理公司: 上海正旦专利代理有限公司 31200 代理人: 陆飞;陆尤
地址: 200433 *** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 监督 联合 训练 ldct 图像 分类 方法
【权利要求书】:

1.一种基于自监督和有监督联合训练的低剂量CT图像去噪与分类方法,其特征在于,具体步骤如下:

(1)采用自监督图像去噪方法,用于LDCT图像去噪;该方法首先通过替换目标噪声像素来构造一个监督信息,作为去噪网络模型的逼近目标;

设为低剂量CT图像,大小为h×w,为一个噪声像素,其中i∈h,j∈w该像素在图像中的坐标,为了降低其噪声,采用一个变换A,将的邻居像素信息融合来产生一个新的像素值,替换掉将变换后的像素作为yi,j,即该点的逼近目标,该过程如下:

其中,为噪声像素的变换后的结果,为噪声像素的邻居像素的集合,且从式(1)可知,变换后的位置为在i,j处的值与无关,只与其邻居像素有关;若对整个LDCT图像ILD做此变换,即A(ILD),则所有像素处的连续性将被保持;这里变换A采用双线性插值;

(2)构建去噪网络要优化的目标函数;经过步骤(1),得到了去噪网络的逼近目标A(ILD),所以,去噪网络要优化的目标函数为均方误差,表达式如下:

其中,f表示去噪网络模型,θ为该网络的参数;自监督去噪损失函数为:

其中,N为训练样本的个数,为MSE损失;

(3)N2S训练过程中,采用基于步长的Noise2Neighbors,使模型的更新利用到更多的像素信息且不会导致恒等映射;具体如下:

SN2N根据不同的步长来选择要变换的像素,具体选择的步长大小为d=1,2,4,即每隔d个像素就变换一个像素值;这样,每个步长d都会产生一个变换后的图像,这些图像将被用作自监督去噪中的监督信息:

(a)当d=1时,LDCT图像中的所有像素都将被替换,这将使得变换后的图像过于平滑,失去一些高频细节信息,不利于细小病灶的保留,影响诊断的准确率;

(b)当d>1时,即不是所有的噪声像素都会被替换,则变换后的图像中将包含原始噪声信号和平滑后的噪声信,这使得模型能够学习到更多的高频信息;此外,随着d的增加,被替换的像素的分布越来越稀疏,并且当d的大小增加到图像的高度(h)或宽度(w)时,只有LDCT图像的最边缘像素值被替换,这将导致模型学习到一个恒等映射,从而失去去噪的能力;

据此,SN2N的损失函数重写为:

其中,Ad(·)表示在步长为d时的插值操作;

(4)网路训练,具体方法如下:

自监督去噪选择三种步长:d=1,2,4结合的方式,即损失函数为公式(4);联合训练去噪网络和分类网络,分别用公式(4)和交叉熵作为损失函数;为了同时训练这两个网络,则将二者的损失函数相加,通过梯度反向传播算法同时对两个网络的参数进行更新;在训练的损失中加入自监督去噪的损失可以有效保证LDCT图像经过有效地去噪后,再作为分类网络的输入。

2.根据权利要求1所述低剂量CT图像去噪与分类方法,其特征在于,去噪网络使用RED-CNN作为主干网络,分类网络使用VGG-16作为骨干网络。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于复旦大学,未经复旦大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110686474.6/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top