[发明专利]一种基于深度学习的医学图像自动分割方法在审

专利信息
申请号: 202111390961.4 申请日: 2021-11-23
公开(公告)号: CN114066866A 公开(公告)日: 2022-02-18
发明(设计)人: 廖苗;邸拴虎;杨文瀚;赵于前;杨振;曾业战 申请(专利权)人: 湖南科技大学
主分类号: G06T7/00 分类号: G06T7/00;G06T7/136;G06K9/62;G06N3/04;G06N3/08;G06V10/82;G06V10/774
代理公司: 暂无信息 代理人: 暂无信息
地址: 411201 湖南省*** 国省代码: 湖南;43
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 医学 图像 自动 分割 方法
【权利要求书】:

1.一种基于深度学习的医学图像自动分割方法,其特征在于,包括以下步骤:

(1)从医学图像公共数据集中获取病人原始医学图像、及图像中目标区域的人工分割结果,构建训练数据集;

(2)构建一种新的融合残差模块和注意力机制的U形深度卷积网络,称之为RA-Unet,具体包括:

(2-a)采用U形网络作为主干网络,该主干网络共包含五个编码层、四个跳跃连接层、四个解码层和一个1×1卷积层,其中第一个编码层的输出不仅作为第二个编码层的输入,同时还通过第一个跳跃连接层与第四个解码层相连作为该解码层的输入;第二个编码层的输出不仅作为第三个编码层的输入,同时还通过第二个跳跃连接层与第三个解码层相连作为该解码层的输入;第三个编码层的输出不仅作为第四个编码层的输入,同时还通过第三个跳跃连接层与第二个解码层相连作为该解码层的输入;第四个编码层的输出不仅作为第五个编码层的输入,同时还通过第四个跳跃连接层与第一个解码层相连作为该解码层的输入;第五个编码层的输出直接作为第一个解码层的输入;此外,上一个解码层的输出均作为下一个解码层的输入;为了得到分割结果,将最后一个解码层与一个1×1卷积层相连,其中最后一个解码层的输出作为1×1卷积层的输入,1×1卷积层的输出为各像素属于目标的概率图,通过引入阈值T,即可得到分割结果;

(2-b)在步骤(2-a)所述的主干网络中,每个编码层均由两个卷积模块连接组成,即双卷积模块,其中每个卷积模块包含1个大小为3×3的卷积层,批归一化层和Relu激活层;为了对图像进行下采样,第一至第四个编码层中,双卷积模块的末尾均增加1个大小为2×2的最大池化层;

(2-c)在步骤(2-a)所述的主干网络中,首先,为了避免信息冗余传递,每一个跳跃连接层都增加了一条带有反卷积与Relu激活层的残差路径,具体结构包括:对编码层的输出进行2×2反卷积与Relu激活操作,将得到的结果与编码层中双卷积模块的输出特征相减,获取可有效表征图像边缘信息与小目标全局信息的特征;其次,为了获取跳跃连接层中特征的高级表征,在每一个跳跃连接层中的残差路径后面增加一个步骤(2-b)中所述的双卷积模块;

(2-d)在步骤(2-a)所述的主干网络中,每个解码层均由一个2×2的反卷积层,一个注意力结构,以及一个步骤(2-b)中所述的双卷积模块连接组成,其中:第一个解码层中反卷积层的输入为第五个编码层的输出,此后,下一个解码层中反卷积层的输入均为上一个解码层的输出;每个解码层中注意力结构的输入包括当前解码层中反卷积层的输出和与该解码层相连的跳跃连接层的输出;每个解码层中双卷积模块的输入均为当前解码层中注意力结构的输出;

(2-e)步骤(2-d)中所述注意力结构,其特征在于:该注意力结构采用多头注意力机制,首先将跳跃连接层特征F1和反卷积后的特征F2分别输入通道注意力模块获取通道注意力映射特征FA1和FA2,然后将映射特征FA1和FA2分别与其对应的原特征F1和F2相乘得到新特征FM1和FM2,再将FM1和FM2分别进行1×1卷积得到FC1和FC2,并将卷积结果FC1和FC2相加得到特征FN,接着对相加结果依次进行Relu激活和1×1卷积操作,并将卷积后的结果输入Sigmod激活函数生成一个权重图,最后将跳跃连接层传递的原始特征F1与该权重图相乘得到最终的注意力映射特征;

(2-f)步骤(2-e)中所述通道注意力模块,其特征在于,具体结构包括:将输入特征F分别进行平均池化和最大池化得到FP1和FP2,然后将池化结果FP1和FP2分别输入含有1个隐藏层的共享多层感知机得到特征MLP1和MLP2,最后将MLP1和MLP2相加,并输入Sigmoid激活函数获取通道注意力映射特征;

(3)结合Dice与二元交叉熵构建RA-Unet网络的损失函数:

Loss=α·BCE_loss+(1-α)·Dice_loss

其中,α为权重因子,取值范围为0~1,用于调节Dice损失值Dice_loss和二元交叉熵损失值BCE_loss所占比重;Dice_loss和BCE_loss的具体计算方法如下:

其中,Gi为CT图像中第i个像素的专家手动分割结果,其中背景标记为0,目标标记为1,Pi为网络预测第i个像素属于目标的概率,N为CT图像中的像素数目;

(4)采用训练数据集对RA-Unet网络进行训练,直至Loss收敛;

(5)利用训练好的网络对测试图像进行测试,自动获取其中的目标区域。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南科技大学,未经湖南科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202111390961.4/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top