[发明专利]一种基于多尺度融合U型链神经网络的医学图像分割方法有效
| 申请号: | 202010117698.0 | 申请日: | 2020-02-25 |
| 公开(公告)号: | CN111325750B | 公开(公告)日: | 2022-08-16 |
| 发明(设计)人: | 王志;王春;惠维 | 申请(专利权)人: | 西安交通大学 |
| 主分类号: | G06T7/10 | 分类号: | G06T7/10;G06V10/80;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 马贵香 |
| 地址: | 710049 *** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 尺度 融合 神经网络 医学 图像 分割 方法 | ||
本发明公开了一种基于多尺度融合U型链神经网络的医学图像分割方法,将多尺度特征融合模块与U型网络很好的融合在一起。通过将不同尺度学习到的特征进行融合产生新的特征,并添加经过1×1卷积的残差连接,将特征与新的特征相加,提高网络的分割效果,实现更加精确的目标定位;同时利用U型链神经网络架构的跳层连接来实现特征组合,将不同抽象层级的特征进行堆叠,大大提高了网络训练的收敛速度,使得其在更短的时间内得到更好的训练模型。本发明能够满足医学图像分割任务中对处理速度和分割精度较高的要求,在医学图像分割中达到非常优秀的性能。
技术领域
本发明涉及图像处理等技术领域,涉及一种图像分割技术,尤其涉及一种基于多尺度融合U型链神经网络的医学图像分割方法。
背景技术
医学图像分割是医学图像处理和医学图像分析的首要步骤,其目的是将医学图像上感兴趣的区域(比如肿瘤区域,器官)分割出来,提取相关特征,对其进行像素级别的分类,将同类像素聚集在一起。这可以极大改善临床流程,对于疾病诊断,疾病进展检测和治疗方案的规划至关重要。然而,由于各种器官和肿瘤区域的形状以及大小之间存在较大差异,和跨机构以及不同生物医学成像设备采集到的医学图像之间的差异,导致图像分辨率,图像噪声也存在较大差异,因此获得准确的医学图像分割仍具有很大的挑战性。
由于深度学习的快速发展,深度卷积神经网络(DCNN)也被广泛应用于各种计算机视觉任务,比如:人脸识别,图像识别,目标定位,物体追踪等,并达到了最先进的性能。虽然DCNN在图像分割中取得了巨大突破,但是在训练过程中需要大量带有标签的数据。然而获得医学图像是十分昂贵且复杂的,而且在进行图像分割时,手动分割标签也会耗费大量的精力和时间,还容易出现错误或观察者内部差异。此外对于不同的医学领域的图像进行分割时还需要该领域的专家,因此这一局限性在医学领域尤为重要。随着全卷积网络的出现,这一问题也得到解决。
然而,在最流行的医学图像分割模型(如FCN,U-Net)中,采用编码器和解码器结构,将经典CNN在卷积层之后的完全连接层替换为卷积层,对最后一个卷积层得到的特征图进行上采样或者转置卷积操作,并在相同深度层之间添加跳跃连接(skip connection),将网络浅层学习到的局部信息与深层学习到的更加复杂的信息进行结合得到新的更加层次的复杂特征。但是由于模型层次越来越深,在卷积过程中逐渐丢失了图像的底层信息,导致不能很好的描绘出感兴趣区域的边界,无法做到精确分割。
发明内容
针对传统医学图像分割方法中分割结果不准确的问题,本发明提供一种基于多尺度融合U型链神经网络的医学图像分割方法,以解决传统医学图像分割方法无法精确分割的问题。
本发明是通过以下技术方案来实现:
一种基于多尺度融合U型链神经网络的医学图像分割方法,包括以下步骤:
S1、对待分割的图像数据进行预处理,得到训练数据集;
S2、构建多尺度融合U型链神经网络,其包括两个U型模块,每个U型模块由多个多尺度融合模块构成,两个U型模块一一对应且相互之间的特征进行add操作;
S3、采用训练数据集对多尺度融合U型链神经网络进行训练,将训练数据集随机分为两部分,一部分为训练集,另一部分为验证集:
S4、将训练集输入多尺度融合U型链神经网络,使用交叉熵损失函数,计算训练过程中预测分割结果与真实标签之间的损失值;
S5、将验证集输入多尺度融合U型链神经网络,使用交叉熵损失,计算验证过程中预测分割结果与真实标签之间的损失值;
S6、判断验证过程中的损失值是否小于训练过程中的最小损失值,若小于则保存当前训练的模型更新网络参数,然后执行步骤S7;
当验证过程中的损失值大于训练过程中的最小损失值,则执行步骤S7;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010117698.0/2.html,转载请声明来源钻瓜专利网。





