[发明专利]确定医学影像显示参数的方法及装置在审
申请号: | 201911348430.1 | 申请日: | 2019-12-24 |
公开(公告)号: | CN111127430A | 公开(公告)日: | 2020-05-08 |
发明(设计)人: | 周越;邹彤;王瑜;孙岩峰;张金;赵朝炜;李新阳;陈宽;王少康 | 申请(专利权)人: | 北京推想科技有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/11;G06T7/90 |
代理公司: | 北京布瑞知识产权代理有限公司 11505 | 代理人: | 秦卫中 |
地址: | 100085 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 确定 医学影像 显示 参数 方法 装置 | ||
本发明提供了一种确定医学影像显示参数的方法及装置,该方法包括:获取医学影像数据,医学影像数据包括医学图像和整体像素值集合;基于医学影像数据确定医学图像中目标区域的目标像素值集合;利用预设规则基于目标像素值集合确定显示参数,显示参数包括窗宽和窗位。本发明的技术方案能够动态调整显示参数,实现对目标区域内细节部分的清晰显示。
技术领域
本发明涉及医疗人工智能领域,具体涉及一种确定医学影像显示参数的方法及装置。
背景技术
医疗影像设备是可以将人体内部的结构重现为影像的各种仪器,清晰的医学影像可以帮助医生对病人疾病的诊断。而清晰的医学影像的获得需要调整医学影像设备的显示参数,现有医疗影像设备的显示参数大都是预先设置好的,对于不同病人涉及的不同影像,难以实现较为清晰的显示。
发明内容
有鉴于此,本发明实施例提供了一种确定医学影像显示参数的方法及装置,能够动态调整显示参数,实现对目标区域内细节部分的清晰显示。
第一方面,本发明的实施例提供了一种确定医学影像显示参数的方法,包括:获取医学影像数据,医学影像数据包括医学图像和整体像素值集合;基于医学影像数据确定医学图像中目标区域的目标像素值集合;利用预设规则基于目标像素值集合确定显示参数,显示参数包括窗宽和窗位。
在本发明某些实施例中,基于医学影像数据确定医学图像中目标区域的目标像素值集合,包括:利用深度学习模型基于医学图像和整体像素值集合确定目标像素值集合。
在本发明某些实施例中,基于医学影像数据确定医学图像中目标区域的目标像素值集合,包括:利用语义分割模型基于医学图像确定概率图像,概率图像的尺寸与医学图像的尺寸一致,概率图像中每个像素点对应的概率信息表示概率图像中每个像素点对应医学图像上的区域属于目标区域的概率;根据概率图像和整体像素值集合确定目标像素值集合。
在本发明某些实施例中,语义分割模型包括改进的U-net网络模型,其中,利用语义分割模型基于医学图像确定概率图像,包括:在利用语义分割模型对医学图像处理时,在利用每个卷积层进行卷积操作前,对卷积层的输入图像进行图像扩充处理,得到第一图像,第一图像的尺寸大于输入图像的尺寸;利用卷积层对第一图像进行卷积处理,得到第二图像,第二图像的尺寸等于输入图像的尺寸;利用语义分割模型的最后一个卷积层输出的第二图像确定概率图像。
在本发明某些实施例中,根据概率图像和整体像素值集合确定目标像素值集合,包括:根据概率图像确定二值图像,二值图像中每个像素点对应的数值表示二值图像中每个像素点对应医学图像上的区域属于背景区域或目标区域;根据二值图像和整体像素值集合确定目标像素值集合。
在本发明某些实施例中,利用预设规则基于目标像素值集合确定显示参数,包括:根据目标像素值集合内各个像素值确定像素值标准差,并根据公式:w=N*A,确定窗宽,其中,像素值标准差用A表示,窗宽用w表示,N为正数;根据目标像素值集合内各个像素值确定像素值均值,并根据公式:c=B-M*w,确定窗位,其中,像素值均值用B表示,窗位用c表示,M为系数。
在本发明某些实施例中,N=5.5~6.5,M=0.03~0.07。
在本发明某些实施例中,显示参数还包括实际窗口上限和实际窗口下限,其中,利用预设规则基于目标像素值集合确定显示参数,还包括:根据窗宽的一半与窗位之和,确定理论窗口上限,并根据窗位与窗宽的一半之差,确定理论窗口下限;在整体像素值集合中最大像素值大于或等于理论窗口上限时,确定理论窗口上限为实际窗口上限,在最大像素值小于理论窗口上限时,确定最大像素值为实际窗口上限;在整体像素值集合中最小像素值小于或等于理论窗口下限时,确定理论窗口下限为实际窗口下限,在最小像素值大于理论窗口下限时,确定最小像素值为实际窗口下限。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京推想科技有限公司,未经北京推想科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911348430.1/2.html,转载请声明来源钻瓜专利网。