[发明专利]基于网络模型的二维序列磁共振图像的器官定位方法有效
| 申请号: | 202010344910.7 | 申请日: | 2020-04-27 |
| 公开(公告)号: | CN111583204B | 公开(公告)日: | 2022-10-14 |
| 发明(设计)人: | 路志英;赵明月;肖阳 | 申请(专利权)人: | 天津大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/73;G06N3/04;G06N3/08 |
| 代理公司: | 天津创智天诚知识产权代理事务所(普通合伙) 12214 | 代理人: | 陈昌娟 |
| 地址: | 300072*** | 国省代码: | 天津;12 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 网络 模型 二维 序列 磁共振 图像 器官 定位 方法 | ||
本发明公开了一种基于网络模型的二维序列磁共振图像的器官定位方法,包括:数据集准备、预处理和扩充处理;构建基于faster R‑CNN的改进的器官初步定位网络模型;利用验证集对器官初步定位网络模型进行优化调整,得到器官定位网络模型;对验证集图像进行器官初步定位,得到针对每个二维切片图像的多个目标检测框及相应的可信度评分,保留每张图像中可信度大于阈值的目标候选框;构建基于序列关联性处理的空间曲线拟合模型;对待定位器官的二维序列磁共振图像进行预处理并输入器官定位网络模型,由器官初步定位结果得到每张图像中可信度大于阈值的目标候选框;基于序列关联性处理对器官进行最终定位。该对器官定位精确且具有良好的泛化性能。
技术领域
本发明涉及磁共振图像中器官的定位方法,具体而言涉及一种基于网络模型的二维序列磁共振图像的器官定位方法。
背景技术
磁共振(MR)成像由于其优越的空间分辨率和组织对比度,目前已经成为前列腺辅助诊断的主要成像方式。相较于经直肠超声成像(TRUS)而言,它促进了靶向活检和治疗对于前列腺肿瘤病变定位、体积评估及前列腺癌症分期有着重要意义。然而目前前列腺MR图像的检查是由放射科医生基于每一张切片图像的视觉检查,因此是一项相当耗时、繁琐且具有一定主观性的任务。
器官定位对于许多如图像配准、器官分割和病变检测等医学图像处理任务都是很重要的。器官初始位置的有效评估能够在很大程度上改善后续处理的性能。例如对于器官分割而言,器官的初始定位能够将分割任务集中在感兴趣的区域,在提升分割速度,降低内存存储的同时降低了假阳性分割的风险。
目前,在医学图像的各种器官/组织的分割和检测中,已经提出了一些应用于计算机辅助诊断的半自动或全自动的方法。然而由于扫描仪和扫描方案的不同所引起的图像亮度、成像伪影及直肠线圈周围信号强度的异质性和腺体本身存在的大小、形状的不同以及腺体与周围组织结构之间的低对比度、缺乏强边界等内在差异,前列腺的分割和检测仍然面临很大的挑战。
近年来,以Faster R-CNN为首的基于区域的两阶段目标检测算法因其卓越的检测精度和较好的检测效率在医学图像处理领域得到了广泛的应用。但是由于网络最初是针对自然图像中的目标检测而设计且对于小目标的检测仍然存在一定的局限性,因此无法对磁共振图像中的器官进行唯一准确的定位。
发明内容
为克服现有技术的不足,本发明提供了一种基于Faster R-CNN改进的二维序列磁共振图像的器官定位方法,充分利用自然图像特征与医学图像特征之间的异同来优化器官的定位精度和检测成功率。
为此,本发明采用以下技术方案:
一种基于网络模型的二维序列磁共振图像的器官定位方法,包括以下步骤:
S1,准备数据集:
搜集多个关于某器官的二维序列磁共振图像,对这些图像中的器官区域进行矩形目标框标注,然后将其分成训练集和验证集;
S2,数据集预处理:对每张所述二维序列MR图像依次进行像素强度最大值最小值归一化处理、中心裁剪处理和图像尺寸归一化处理;
S3,对步骤S2得到的训练集图像及对应器官的矩形目标框标注进行数据扩充处理;
S4,构建基于faster R-CNN的改进的器官定位网络模型,包括以下步骤:
1)构建基于改进的Faster R-CNN的目标检测网络架构,利用带有空间注意力机制的ResNet-50代替经典Faster R-CNN中的VGG16架构,利用ImageNet大型自然数据集对ResNet-50进行训练,得到网络的初始训练权重参数;
2)将步骤S3扩充后的训练集图像及对应的矩形目标框标注作为步骤1)中网络的输入,利用分类损失和回归损失构成的多任务损失函数对整个网络架构参数进行迭代调整,完成网络训练,生成器官初步定位网络模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010344910.7/2.html,转载请声明来源钻瓜专利网。





