[发明专利]一种基于深度相机的物体边界测量方法和装置在审
| 申请号: | 202010680384.1 | 申请日: | 2020-07-15 |
| 公开(公告)号: | CN111932576A | 公开(公告)日: | 2020-11-13 |
| 发明(设计)人: | 黄敏;裘昊天;张晓林;李嘉茂 | 申请(专利权)人: | 中国科学院上海微系统与信息技术研究所 |
| 主分类号: | G06T7/187 | 分类号: | G06T7/187;G06T7/13;G06T7/136;G06T7/194;G06T7/55;G06T5/50 |
| 代理公司: | 上海泰能知识产权代理事务所 31233 | 代理人: | 钱文斌;黄志达 |
| 地址: | 200050 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 相机 物体 边界 测量方法 装置 | ||
1.一种基于深度相机的物体边界测量方法,其特征在于,包括以下步骤:
(1)通过深度相机获取被测物体在空间中发生空间变化前后的两张深度图,其中,所述深度图包括被测物体的深度信息;
(2)将两张深度图相减得到深度差值图,根据深度差值图得到被测物体的像素区域;
(3)通过所述深度相机内参和外参以及所述像素区域提取物体边界。
2.根据权利要求1所述的基于深度相机的物体边界测量方法,其特征在于,所述步骤(1)中被测物体在空间中发生空间变化是指获取到的两张深度图中被测物体所在像素区域的深度发生变化。
3.根据权利要求1所述的基于深度相机的物体边界测量方法,其特征在于,所述步骤(2)中的深度差值图反映了被测物体和背景环境的深度变化,通过被测物体深度变化与背景深度变化的不同来区分深度图中的被测物体和背景。
4.根据权利要求1所述的基于深度相机的物体边界测量方法,其特征在于,所述步骤(2)中根据深度差值图得到被测物体的像素区域具体为:遍历深度差值图的像素,将像素与阈值比较,实现二值化处理,并将大于阈值的像素区域作为被测物体的备选像素区域;通过区域联通算法将备选区域划分为若干连通区域;通过连通区域的特征选出被测物体的像素区域。
5.根据权利要求4所述的基于深度相机的物体边界测量方法,其特征在于,所述连通区域的特征为所述连通区域中心与图像中心的相对距离、或所述连通区域质心与图像质心的相对距离、或所述连通区域的面积。
6.根据权利要求1所述的基于深度相机的物体边界测量方法,其特征在于,所述步骤(3)具体为:通过遍历被测物体的像素区域内每一个像素的深度值,通过所述深度相机的内参计算位于像素在相机坐标系下的坐标;通过所述深度相机的外参计算出像素在地面坐标系下的坐标,得到所有像素点在地面坐标系下的坐标,并找到所有坐标中的横坐标和纵坐标的最大值与最小值,横坐标最大值与最小值的差值表示物体的长度,纵坐标最大值与最小值表示物体的宽度。
7.一种基于深度相机的物体边界测量装置,其特征在于,包括深度相机、控制单元和计算单元,所述深度相机用于获取被测物体的深度图,其中,所述深度图包括被测物体的深度信息;所述控制单元用于在被测物体在空间中发生空间变化前后向所述深度相机发出拍摄的控制信号;所述计算单元包括像素区域提取部分和物体边界计算部分,所述像素区域提取部分用于将两张深度图相减得到深度差值图,根据深度差值图得到被测物体的像素区域;所述物体边界计算部分用于通过所述深度相机内参和外参以及所述像素区域提取物体边界。
8.根据权利要求7所述的基于深度相机的物体边界测量装置,其特征在于,所述像素区域提取部分通过遍历深度差值图的像素,将像素与阈值比较,实现二值化处理,并将大于阈值的像素区域作为被测物体的备选像素区域;通过区域联通算法将备选区域划分为若干连通区域;通过连通区域的特征选出被测物体的像素区域。
9.根据权利要求8所述的基于深度相机的物体边界测量装置,其特征在于,所述连通区域的特征为所述连通区域中心与图像中心的相对距离、或所述连通区域质心与图像质心的相对距离、或为所述连通区域的面积。
10.根据权利要求7所述的基于深度相机的物体边界测量装置,其特征在于,所述物体边界计算部分通过遍历被测物体的像素区域内每一个像素的深度值,通过所述深度相机的内参计算位于像素在相机坐标系下的坐标;通过所述深度相机的外参计算出像素在地面坐标系下的坐标,得到所有像素点在地面坐标系下的坐标,并找到所有坐标中的横坐标和纵坐标的最大值与最小值,横坐标最大值与最小值的差值表示物体的长度,纵坐标最大值与最小值表示物体的宽度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院上海微系统与信息技术研究所,未经中国科学院上海微系统与信息技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010680384.1/1.html,转载请声明来源钻瓜专利网。





