[发明专利]基于视觉非完整机器人在极坐标下的无模型目标跟踪方法有效
申请号: | 201710266847.8 | 申请日: | 2017-04-21 |
公开(公告)号: | CN107097256B | 公开(公告)日: | 2019-05-10 |
发明(设计)人: | 陈华;陈晖 | 申请(专利权)人: | 河海大学常州校区 |
主分类号: | B25J19/00 | 分类号: | B25J19/00;B25J9/16;G06T7/20;G06T7/00;G06T7/13;G06T7/155;G06T7/50 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 姚兰兰;董建林 |
地址: | 213022 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 视觉 完整 机器人 坐标 模型 目标 跟踪 方法 | ||
1.一种基于视觉非完整机器人在极坐标下的无模型目标跟踪方法,其特征在于,具体步骤如下:
(1)机器人通过摄像机获取环境信息图像并对RGB图像先进行高斯平滑滤波、图像灰度化处理,然后利用Sobel算子进行边缘检测,通过自适应二值化处理获得二值化图像,对二值化图像进行图像形态学处理,之后通过对连通区域进行判断,根据颜色和形状特征提取出目标区域;
(2)根据RGB图像中与深度图像的坐标关系,确定深度图像中的目标区域;
(3)当目标运动时,根据迭代最近点算法计算出相邻两帧图像间的位移关系,设两帧图获取间隔为t,得到目标的水平方向的位移x,同时根据深度图像得出垂直方向的位移值y;
(4)根据步骤(3)中得出的位移值,在极坐标系中建立机器人与目标间的坐标图;
(5)根据步骤(4)中的机器人与目标间的关系得出机器人的线速度和角速度。
2.根据权利要求1所述的目标跟踪方法,其特征在于,在所述步骤(1)中的边缘检测是根据目标特征选取检测方法。
3.根据权利要求1所述的目标跟踪方法,其特征在于,在所述步骤(2)中,首先对RGB-D摄像机的深度图和RGB图的坐标进行校准,使深度数据和RGB数据相对应。
4.根据权利要求1所述的目标跟踪方法,其特征在于,在所述步骤(3)中,通过对相邻两帧图像提取SIFT关键点进行匹配,得出图像间的转移关系,通过PCL的迭代最近点算法求解出位移x和y。
5.根据权利要求1所述的目标跟踪方法,其特征在于,在所述步骤(4)中,以机器人中心为极坐标的原点得到目标的位置为(ρ,θ),其中x,y为所求出的位移量:
6.根据权利要求5所述的目标跟踪方法,其特征在于,在所述步骤(5)中,机器人的线速度v和角速度ω分别为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学常州校区,未经河海大学常州校区许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710266847.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:小机台二次元机械手
- 下一篇:一种水泥细度负压筛析仪