[发明专利]一种机器人3D视觉抓取方法及系统有效
申请号: | 202111560940.2 | 申请日: | 2021-12-20 |
公开(公告)号: | CN113927606B | 公开(公告)日: | 2022-10-14 |
发明(设计)人: | 卿黎明;李婷 | 申请(专利权)人: | 湖南视比特机器人有限公司 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 长沙朕扬知识产权代理事务所(普通合伙) 43213 | 代理人: | 包雨函 |
地址: | 410000 湖南省长沙市高新开*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 机器人 视觉 抓取 方法 系统 | ||
1.一种机器人3D视觉抓取方法,其特征在于,包括:
获取待抓取零件在机器人标准拍照位的第一实际点云数据;
对所述第一实际点云数据进行预处理得到第一场景点云数据;
将所述第一场景点云数据与第一预设模型点云进行粗匹配得到待抓取零件的多个候选位姿;
将所述多个候选位姿与第一预设模型点云中的位姿进行精匹配,得到待抓取零件与模型零件之间的变换矩阵;
根据所述变换矩阵与模型零件的位置计算待抓取零件的待抓取位坐标,并基于所述待抓取位坐标抓取待抓取零件;
抓取到待抓取零件后,获取纠偏相机拍摄的第二实际点云数据,所述第二实际点云数据包括机器人抓手与待抓取零件的第一位置关系;
对所述第二实际点云数据进行预处理得到第二场景点云数据;
将所述第二场景点云数据与第二预设模型点云进行匹配,所述第二预设模型点云包括机器人抓手与模型零件的第二位置关系;
在所述第一位置关系与所述第二位置关系存在偏差的情况下,确定第一位置关系与第二位置关系之间的偏差信息,所述偏差信息包括第二场景点云数据与第二预设模型点云之间的位置移动信息;
根据所述偏差信息与模型零件的放置位置坐标计算待抓取零件的放置位坐标;
所述待抓取位坐标R2满足如下关系式:
R2=Rp2×En×M2×M1-1×Es-1×Rp1-1×R1;
式中,Rp1表示机器人的基准拍照点,所述机器人的基准拍照点为机器人标准拍照位的拍照点,Rp2表示待抓取零件的拍照位,Es表示做标准模型的相机外参,En表示指抓取待抓取零件时的相机外参,P1表示拍到的点云中模型零件相对于模型的位姿,P2表示拍到的点云中待抓取零件相对于模型的位姿,M1表示P1与模型之间的位姿转换矩阵,M2表示P2与模型之间的位姿转换矩阵、R1表示模型零件的抓取位坐标,其中M2由精配准得出;
所述对所述第一实际点云数据进行预处理得到目标点云数据,包括:
对所述第一实际点云数据进行滤波处理,并对滤波处理的结果进行降采样处理得到目标点云数据;
所述将所述第一场景点云数据与第一预设模型点云进行粗匹配得到待抓取零件的多个候选位姿,包括:
计算所述第一场景点云数据的全局点对特征,以特征为键,以点对为值建立哈希表作为目标点云数据的全局模型;
将所述第一场景点云数据的全局模型与第一预设模型点云进行局部匹配,得到多个候选位姿。
2.根据权利要求1所述的机器人3D视觉抓取方法,其特征在于,所述对所述第一实际点云数据进行滤波处理,包括:
建立目标点云坐空间标系,基于目标点云空间坐标系设定一个通道,将图片点云数据在通道范围之外的点剔除,得到第一滤波结果;
计算第一滤波结果的每一个点到它的所有临近点的平均距离,将平均距离在预设标准范围之外的点,从第一滤波结果中剔除,得到第二滤波结果;
将第二滤波结果划分为若干个区域,对每一个区域指定一个种子点作为生长的起点,然后将种子点的相邻区域的点和种子点进行对比,计算相似度,将相似度超过阈值的点合并入同一个区域,以此迭代,直到没有满足条件的点被合并入区域中,得到第三滤波结果;
剔除所述第三滤波结果中属于预设三维盒子范围之外的点云,得到第四滤波结果。
3.根据权利要求1所述的机器人3D视觉抓取方法,其特征在于,所述降采样包括均匀降采样、体素降采样、曲率降采样、以及泊松磁盘采样中的任意一项。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南视比特机器人有限公司,未经湖南视比特机器人有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111560940.2/1.html,转载请声明来源钻瓜专利网。