[发明专利]基于视觉ROS系统的非完整机器人远程定点自导航方法在审
申请号: | 201711391727.7 | 申请日: | 2017-12-21 |
公开(公告)号: | CN107860390A | 公开(公告)日: | 2018-03-30 |
发明(设计)人: | 陈华;王鹏远;朱校君;刘少国;杨柯 | 申请(专利权)人: | 河海大学常州校区 |
主分类号: | G01C21/20 | 分类号: | G01C21/20 |
代理公司: | 南京纵横知识产权代理有限公司32224 | 代理人: | 董建林 |
地址: | 213022 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于视觉ROS系统的非完整机器人远程定点自导航方法,首先通过标定的Kinect摄像机采集RGB图像和深度图像以获取点云图像,采用SURF法提取每一帧图像的特征信息,并对相邻帧之间的特征进行匹配,结合深度图像估计相邻两帧之间的机器人的位姿变化并优化估计结果,创建周围环境的栅格地图,实现上位机与下位联机,对地图进行目的地的标记,实现机器人的远程定点自导航。本发明通过点云图像读取机器人的位姿信息,提高了位置精度,采用SURF法进行特征提取,使得提取速度和精度都能满足实时性的需要,对位姿变化进行了优化处理,提高了定位准确性,同时实现了机器人远程定点自导航的功能。 | ||
搜索关键词: | 基于 视觉 ros 系统 完整 机器人 远程 定点 导航 方法 | ||
【主权项】:
一种基于视觉ROS系统的非完整机器人远程定点自导航方法,其特征在于,包括以下步骤:(1)对Kinect摄像机的红外摄像头和RGB摄像头的内外参数进行标定和图像配准,通过标定的摄像机将采集到的RGB图像和深度图像生成点云图像,利用SURF方法对得到的每一帧点云图像数据进行特征提取;(2)根据步骤(1)中得出的不同帧之间的特征,实现相邻帧之间的特征匹配;(3)Kinect摄像机采集到的数据为3D‑2D点对,基于Kinect摄像机所获取RGB图像和深度图像信息,采用P3P方法,即通过采集到的3D空间点和3D空间点的投影位置来确定机器人所在的位姿;(4)对机器人的位姿估计进行优化处理;(5)创建周围环境的栅格地图;(6)将上位机与下位联机,对步骤(5)中所创建的地图进行目的地的标记,实现机器人的远程定点自导航。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学常州校区,未经河海大学常州校区许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201711391727.7/,转载请声明来源钻瓜专利网。
- 上一篇:机器人室内行走强化学习路径导航算法
- 下一篇:汽车精确导航方法和装置