[发明专利]基于K均值聚类的光场前景分割方法及装置有效
申请号: | 201711230611.5 | 申请日: | 2017-11-29 |
公开(公告)号: | CN107862698B | 公开(公告)日: | 2019-01-08 |
发明(设计)人: | 刘杰;周建设;陈宪宇;代锋 | 申请(专利权)人: | 首都师范大学;中国科学院计算技术研究所 |
主分类号: | G06T7/11 | 分类号: | G06T7/11;G06T7/136;G06T7/168;G06T7/194;G06K9/62 |
代理公司: | 北京易捷胜知识产权代理事务所(普通合伙) 11613 | 代理人: | 齐胜杰 |
地址: | 100048 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 均值 前景 分割 方法 装置 | ||
本发明公开了一种基于K均值聚类的光场前景分割方法及装置,方法包括:针对待处理的光场图像,提取重聚焦图像、极线平面图像和全清晰图像;采用结构张量方法对极线平面图像进行处理,获取极线平面深度信息;采用离散余弦响应方法对重聚焦图像进行处理,获取重聚焦信息;采用超像素分割技术讲全清晰图像分割的多个区域,针对每一个区域,获取区域颜色特征、区域几何特征、区域对应点特征和区域重聚焦特征;并采用K均值聚类计算区域之间的相似度;基于相似度,采用图割算法标记前景和背景,获取光场图像的前景分割结果。上述方法处理后的前景分割结果比现有技术中的前景分割结果更准确。
技术领域
本发明属于图像处理技术,尤其涉及一种基于K均值聚类的光场前景分割方法及装置。
背景技术
随着图像技术的发展,图像处理和图像操作的便捷性要求越来越高。准确和便捷的图像前景分割技术是现代图像处理领域的标准要求。前景分割被广泛应用于图像编辑、动画制作、物体识别、监控分析等各个领域。传统算法主要有基于阈值、基于边缘等一些算法。然而,这种算法对一些特殊场景的分割准确率较低。例如:当前景与背景颜色十分相似时,出现外表伪装;当背景杂乱,有各种颜色的物体,这时容易错误地把部分背景分割成前景。另外,有的算法依赖于人工的简单标记。当处理图片数量较大时,就无法对每张图片进行手动逐一标记。
现有技术中公开一种基于三维光场的静态场景前景分割方法,该方法包括:通过相机在一条一维直线上等间隔拍摄一场景的序列图像以构建三维光场,并生成场景的对极平面图;使用直线检测算法提取所述对极平面图中的直线特征并计算斜率信息,由所述斜率信息恢复场景中不同物体的深度信息,并使用快速插值算法生成整个场景的深度图像;对所述深度图像中的不同物体设定对应的深度阈值,并根据所述深度阈值对不同物体进行快速分割;尤其在复杂户外场景的分割中,能够准确恢复场景中多个物体之间的空间关系,较好地克服了现有基于区域聚类和数学形态学等方法在复杂场景应用中存在的过分割问题,在针对特定目标提取时有较高的分割效率。
上述方法是使用相机沿直线多次拍摄,且在得到深度图像后,使用阈值法得到前景,上述方法处理过程简单,容易造成前景区域不连续。
发明内容
针对现有技术中的问题,本发明提供一种基于K均值聚类的光场前景分割方法及装置。
第一方面,本发明提供一种基于K均值聚类的光场前景分割方法,包括:
步骤A:针对待处理的光场图像,从所述光场图像中提取重聚焦图像、极线平面图像和全清晰图像;
步骤B:采用结构张量方法对所述极线平面图像进行处理,获取所述光场图像中不同透镜视角的极线平面深度信息;
步骤C:采用离散余弦响应方法对所述重聚焦图像进行处理,获取所述光场图像的重聚焦信息;
步骤D:采用超像素分割技术对所述全清晰图像进行处理,获取全清晰图像分割后的多个区域,以及
步骤E:针对每一个区域,基于该区域的极线平面深度信息、所述重聚焦信息、颜色信息和几何信息对该区域进行特征提取,获得该区域的颜色特征、几何特征、对应点特征和重聚焦特征;
步骤F:对于所有区域,基于每一个区域的颜色特征、几何特征、对应点特征和重聚焦特征,采用K均值聚类计算相邻区域之间的相似度;
步骤G:基于相邻区域之间的相似度,采用图割算法标记前景和背景,获取所述光场图像的前景分割结果。
可选地,所述步骤B包括:
光场图像的坐标信息为(s,t,x,y),其中,(s,t)代表拍摄场景的光线入射角度维度,(x,y)代表光线入射位置维度;所述极线平面图像的坐标信息为(x,s)或者(y,t);
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于首都师范大学;中国科学院计算技术研究所,未经首都师范大学;中国科学院计算技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711230611.5/2.html,转载请声明来源钻瓜专利网。