[发明专利]一种基于区块拼接的实时图像实例分割方法有效
| 申请号: | 202010362097.6 | 申请日: | 2020-04-30 |
| 公开(公告)号: | CN111462140B | 公开(公告)日: | 2023-07-07 |
| 发明(设计)人: | 王瀚漓;徐昱韬 | 申请(专利权)人: | 同济大学 |
| 主分类号: | G06T7/11 | 分类号: | G06T7/11;G06T3/40;G06N3/0464;G06N3/08 |
| 代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 杨宏泰 |
| 地址: | 200092 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 区块 拼接 实时 图像 实例 分割 方法 | ||
本发明涉及一种基于区块拼接的实时图像实例分割方法,包括以下步骤:1)采用第一多层卷积神经网络获取输入图像中物体实例的区块分布地图,并获取区块分布地图中每个像素的每个通道对应的值,即区块像素预测值b;2)采用第二多层卷积神经网络获取输入图像的区块拼接地图,并获取区块拼接地图中的每个像素的每个通道对应的值,即区块得分c;3)采用拼接算法将区块拼接地图和区块分布地图拼接组合得到物体实例的遮罩掩码;4)对所有预测物体实例的外接矩形进行处理,完成图像实例分割。与现有技术相比,本发明具有推理速度快、可扩展性强、计算耗费少、模型简洁、分割准确等优点。
技术领域
本发明涉及于数字图像处理技术领域,尤其是涉及一种基于区块拼接的实时图像实例分割方法。
背景技术
计算机视觉的目标是理解视觉中的场景,涉及多种任务,这其中图像分割是最具挑战、最具应用意义的计算机视觉基础任务之一,图像分割的本质目标是为了给输入视觉信号中每个像素进行归类,应用十分广泛,如在自动驾驶汽车中,为了了解汽车周围的环境从而更好地做出行动判断,需要对输入图像中的道路、车辆、行人等进行精确定位,图像分割为无人驾驶汽车的安全稳定提供重要保障,在现代医学图像诊断中,为了精确定位病患的位置,也会使用图像分割技术协助医生做出更准确的判断,在自动化工业生产设备应用中,图像分割技术能准确地定位每一个工件位置,为智能化装配工序提供有力支持,随着智能安防、智慧城市、工业4.0以及新基建等概念的实践发展,未来众多智能化设备越来越需要一个对精准、迅速的图像分割模型,从而更好更快地理解视觉场景。
随着以AlexNet为首的深度卷积神经网络技术的提出,图像分割技术得到了前所未有的发展,当前主流的实例分割方法Mask-RCNN使用二阶段预测形式,即先使用一个推荐框生成器得到初步的目标位置信息,再用这个位置信息去截取特征的相应块,最后再将这些特征块归一化到一个尺度范围后经过一个神经网络得到目标的遮罩掩码,但是这一过程需要巨大的计算耗费,因而目前众多基于此方法的实例分割模型无法达到实时处理的要求。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于区块拼接的实时图像实例分割方法。
本发明的目的可以通过以下技术方案来实现:
一种基于区块拼接的实时图像实例分割方法,包括以下步骤:
1)采用第一多层卷积神经网络获取输入图像中物体实例的区块分布地图,并获取区块分布地图中每个像素的每个通道对应的值,即区块像素预测值b;
区块分布地图中的每一个像素由多个通道组成,代表以像素位置为中心的区块掩码,若一个区块中心恰好属于某个物体,那么这个区块将表示这个物体的一部分片段的掩码,区块分布地图中每个像素的每个通道中的值被称为区块像素预测值;
2)采用第二多层卷积神经网络获取输入图像的区块拼接地图,并获取区块拼接地图中的每个像素的每个通道对应的值,即区块得分c;
区块拼接地图中的每一个像素由多个通道组成,如果某个物体的中心位置在该像素位置附近,则在这些通道中存储一个正方形区域内的所有区块的得分,得分越高区块属于物体的可能性越大,区块拼接地图中的每个像素的每个通道的值被称为区块得分;
3)采用拼接算法将区块拼接地图和区块分布地图拼接组合得到物体实例的遮罩掩码;
4)对所有预测物体实例的外接矩形进行处理,完成图像实例分割。
所述的步骤1)中,区块分布地图中每个像素用以表示物体实例的部分掩码区块,并且每个像素由多个通道组成,代表以该像素位置为中心的区块掩码,物体实例的掩码区块具体为指定类别物体的矩形掩码片段。
所述的步骤1)中,每个掩码区块均与相邻掩码区块重叠。
所述的步骤2)中,区块拼接地图具体表示指定类别物体周围属于该物体区块的区块得分。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010362097.6/2.html,转载请声明来源钻瓜专利网。





