[发明专利]基于深度相机的工件识别与定位方法和系统、分拣系统在审
申请号: | 201910519767.8 | 申请日: | 2019-06-17 |
公开(公告)号: | CN110246127A | 公开(公告)日: | 2019-09-17 |
发明(设计)人: | 温秀兰;张腾飞;孙乔;乔贵方;张颖;康传帅 | 申请(专利权)人: | 南京工程学院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/33;G06K9/62;B25J9/16 |
代理公司: | 南京钟山专利代理有限公司 32252 | 代理人: | 戴朝荣 |
地址: | 211167 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 点云 配准 工件识别 深度相机 分拣系统 支持向量机训练 实时点云数据 工业机器人 末端执行件 点云数据 工件模型 精准控制 快速识别 目标工件 训练样本 鲁棒性 完整度 分拣 算法 位姿 | ||
本发明公开了一种基于深度相机的工件识别与定位方法和系统,基于支持向量机训练不同种类、不同姿态和不同完整度的工件模型和识别实时点云数据中所包含的工件点云、以及对应的工件种类与工件姿态;将识别结果作为点云配准的初始值,采用ICP算法和NDT算法进行精配准。本发明将深度相机生成的点云数据作为训练样本识别工件,增强了识别工件的鲁棒性,实现了对工件位姿的估计;将识别的结果作为点云的配准的初始值,有效的缩短了点云配准的时间,提高了点云配准的精度;另外,本发明还提供一种分拣系统,基于前述工件识别与定位方法,对目标工件进行快速识别定位,以精准控制工业机器人末端执行件的分拣动作。
技术领域
本发明涉及机器视觉技术领域,具体而言涉及一种基于深度相机的工件识别与定位方法和系统、分拣系统。
背景技术
近年来,随着计算机技术以及图像处理技术的迅速发展,机器视觉已经广泛应用在汽车制造、食品分拣、自动化加工生产等技术领域。在工业领域中,机器视觉通常用于视觉测量、视觉引导和视觉检测三方面。
在现代化视觉检测自动加工生产中,工件目标识别与定位是必不可少的一步。传统的目标识别常采用模板匹配的方法。模板匹配法是一种最基本的图像识别方法。模板是为了检测待识别图像的某些区域特征而设计的阵列,模板匹配法就是把已知物体的模板与图像中所有未知物体进行比较,如果某一未知物体与该模板匹配,则标记此物体为检测目标,并被认为是与模板相同的物体。
模板匹配法虽然简单方便,但其应用场合有一定限制。因为要表明所有物体的各种方向及尺寸需要大量的模板数据,且其匹配过程由于需要的存储量和计算量过大而不经济。同时该方法过多地依赖于已知物体的模板,如果已知物体的模板产生变形,将导致错误识别问题。
工件目标的定位分为2D定位和3D定位,2D定位计算出目标物体的三维位置信息,3D定位计算出目标物体的位置和姿态信息。2D定位通过霍夫变换等方法识别图像中物体的中心点坐标,3D定位常采用点云配准的方法估计物体的姿态,采样一致性初始配准算法(Sample Consensus Initial Aligment,简称SAC-IA)、正态分布变换(NormalDistributions Transform,简称NDT)配准和迭代最近点算法(Iterative Closest Point,简称ICP)三种方法。
传统的点云配准方法,精度受限且依赖于初始值。因此,亟待提出一种基于深度相机的工件识别与定位方法,既能快速准确的识别物体,又可以实现物体位姿的估计。
发明内容
本发明目的在于提供一种基于深度相机的工件识别与定位方法和系统,将深度相机生成的点云数据作为训练样本识别工件,取代了传统的模板匹配方法,增强了识别工件的鲁棒性,实现了对工件位姿的估计;将识别的结果作为点云的配准的初始值,有效的缩短了点云配准的时间,提高了点云配准的精度;另外,本发明还提供一种分拣系统,基于前述工件识别与定位方法,对目标工件进行快速识别定位,以精准控制工业机器人末端执行件的分拣动作。
为达成上述目的,结合图1,本发明提出一种基于深度相机的工件识别与定位方法,所述方法包括:
S1:采用深度相机以采集现场工作环境的图像信息和对应的实时点云数据。
S2:基于支持向量机训练不同种类、不同姿态和不同完整度的工件模型和识别实时点云数据中所包含的工件点云、以及对应的工件种类与工件姿态。
S3:将识别结果作为点云配准的初始值,依次采用ICP算法和NDT算法进行精配准。
S4:采用标定板以建立相机坐标系与世界坐标系的关系,获取工件的位姿数据。
进一步的实施例中,所述方法还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京工程学院,未经南京工程学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910519767.8/2.html,转载请声明来源钻瓜专利网。