[发明专利]基于视觉ROS系统的非完整机器人远程定点自导航方法在审

专利信息
申请号: 201711391727.7 申请日: 2017-12-21
公开(公告)号: CN107860390A 公开(公告)日: 2018-03-30
发明(设计)人: 陈华;王鹏远;朱校君;刘少国;杨柯 申请(专利权)人: 河海大学常州校区
主分类号: G01C21/20 分类号: G01C21/20
代理公司: 南京纵横知识产权代理有限公司32224 代理人: 董建林
地址: 213022 *** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于视觉ROS系统的非完整机器人远程定点自导航方法,首先通过标定的Kinect摄像机采集RGB图像和深度图像以获取点云图像,采用SURF法提取每一帧图像的特征信息,并对相邻帧之间的特征进行匹配,结合深度图像估计相邻两帧之间的机器人的位姿变化并优化估计结果,创建周围环境的栅格地图,实现上位机与下位联机,对地图进行目的地的标记,实现机器人的远程定点自导航。本发明通过点云图像读取机器人的位姿信息,提高了位置精度,采用SURF法进行特征提取,使得提取速度和精度都能满足实时性的需要,对位姿变化进行了优化处理,提高了定位准确性,同时实现了机器人远程定点自导航的功能。
搜索关键词: 基于 视觉 ros 系统 完整 机器人 远程 定点 导航 方法
【主权项】:
一种基于视觉ROS系统的非完整机器人远程定点自导航方法,其特征在于,包括以下步骤:(1)对Kinect摄像机的红外摄像头和RGB摄像头的内外参数进行标定和图像配准,通过标定的摄像机将采集到的RGB图像和深度图像生成点云图像,利用SURF方法对得到的每一帧点云图像数据进行特征提取;(2)根据步骤(1)中得出的不同帧之间的特征,实现相邻帧之间的特征匹配;(3)Kinect摄像机采集到的数据为3D‑2D点对,基于Kinect摄像机所获取RGB图像和深度图像信息,采用P3P方法,即通过采集到的3D空间点和3D空间点的投影位置来确定机器人所在的位姿;(4)对机器人的位姿估计进行优化处理;(5)创建周围环境的栅格地图;(6)将上位机与下位联机,对步骤(5)中所创建的地图进行目的地的标记,实现机器人的远程定点自导航。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学常州校区,未经河海大学常州校区许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201711391727.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top