[发明专利]一种机器人3D视觉抓取方法及系统有效
申请号: | 202111560940.2 | 申请日: | 2021-12-20 |
公开(公告)号: | CN113927606B | 公开(公告)日: | 2022-10-14 |
发明(设计)人: | 卿黎明;李婷 | 申请(专利权)人: | 湖南视比特机器人有限公司 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 长沙朕扬知识产权代理事务所(普通合伙) 43213 | 代理人: | 包雨函 |
地址: | 410000 湖南省长沙市高新开*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 机器人 视觉 抓取 方法 系统 | ||
本发明涉及3D视觉技术领域,公开了一种机器人3D视觉抓取方法及系统,该抓取方法将待抓取零件与该标准姿态比对求出其中的变换关系,并最后反向求出机器人正确的抓取坐标,完成精准抓取,可以提升机器人的抓取精度。
技术领域
本发明涉及3D视觉技术领域,尤其涉及一种机器人3D视觉抓取方法及系统。
背景技术
随着人工智能浪潮的兴起,机器人在各行各业发挥着日益重要的作用。近年来,工业机器人广泛应用于码垛、焊接、搬运、装配、涂漆等作业,对机器人而言,抓取是机器人走进真实世界必不可少的技能,比如在物流行业中对物体进行分拣,在工业生产线上完成零件的装配等。因此,如何实现机器人的零件抓取功能成为一个亟需解决的问题。
发明内容
本发明提供了一种机器人3D视觉抓取方法及系统,以解决现有技术中存在的问题。
为了实现上述目的,本发明通过如下的技术方案来实现:
第一方面,本发明提供一种机器人3D视觉抓取方法,包括:
获取待抓取零件在机器人标准拍照位的实际点云数据;
对所述第一实际点云数据进行预处理得到第一场景点云数据;
将所述第一场景点云数据与第一预设模型点云进行粗匹配得到待抓取零件的多个候选位姿;
将所述多个候选位姿与第一预设模型点云中的位姿进行精匹配,得到待抓取零件与模型零件之间的变换矩阵;
根据所述变换矩阵与模型零件的位置计算待抓取零件的待抓取位坐标,并基于所述待抓取位坐标抓取待抓取零件;
抓取到待抓取零件后,获取纠偏相机拍摄的第二实际点云数据,所述第二实际点云数据包括机器人抓手与待抓取零件的第一位置关系;
对所述第二实际点云数据进行预处理得到第二场景点云数据;
将所述第二场景点云数据与第二预设模型点云进行匹配,所述第二预设模型点云包括机器人抓手与模型零件的第二位置关系;
在所述第一位置关系与所述第二位置关系存在偏差的情况下,确定第一位置关系与第二位置关系之间的偏差信息,所述偏差信息包括第二场景点云数据与第二预设模型点云之间的位置移动信息;
根据所述偏差信息与模型零件的放置位置坐标计算待抓取零件的放置位坐标;
所述待抓取位坐标R2满足如下关系式:
R2=Rp2×En×M2×M1-1×Es-1×Rp1-1×R1;
式中,Rp1表示机器人的基准拍照点,所述机器人的基准拍照点为机器人标准拍照位的拍照点,Rp2表示待抓取零件的拍照位,Es表示做标准模型的相机外参,En表示指抓取待抓取零件时的相机外参,P1表示拍到的点云中模型零件相对于模型的位姿,P2表示拍到的点云中待抓取零件相对于模型的位姿,M1表示P1与模型之间的位姿转换矩阵,M2表示P2与模型之间的位姿转换矩阵、R1表示模型零件的抓取位坐标,其中M2由精配准得出;
所述对所述第一实际点云数据进行预处理得到目标点云数据,包括:
对所述第一实际点云数据进行滤波处理,并对滤波处理的结果进行降采样处理得到目标点云数据;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南视比特机器人有限公司,未经湖南视比特机器人有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111560940.2/2.html,转载请声明来源钻瓜专利网。