[发明专利]一种可回收垃圾视觉分类方法、系统、设备在审
申请号: | 201911358220.0 | 申请日: | 2019-12-25 |
公开(公告)号: | CN111144480A | 公开(公告)日: | 2020-05-12 |
发明(设计)人: | 陈超;萨尔曼·艾利坎·巴纳 | 申请(专利权)人: | 深圳蓝胖子机器人有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/34 |
代理公司: | 深圳协成知识产权代理事务所(普通合伙) 44458 | 代理人: | 章小燕 |
地址: | 518000 广东省深圳市南山区粤兴三道*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 可回收 垃圾 视觉 分类 方法 系统 设备 | ||
1.一种可回收垃圾视觉分类方法,其特征在于,所述方法包括以下步骤:
获取传送带上物体的RGB图像和深度信息;
根据获取的物体的RGB图像,对RGB图像进行分割和分类;
将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云;
根据各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿。
2.如权利要求1所述的可回收垃圾视觉分类方法,其特征在于,根据获取的物体的RGB图像,对RGB图像进行分割和分类,具体方式为:通过基于深度卷积神经网络模型的实例分割算法,对RGB图像进行分割,得到各个物体在RGB图像中的区域、各个物体所属的垃圾种类。
3.如权利要求2所述的可回收垃圾视觉分类方法,其特征在于,还包括:
根据垃圾回收种类的定义,采集各种物体图像并进行标注,使用标注后的图像数据对所述基于深度卷积神经网络模型进行预先训练。
4.如权利要求2所述的可回收垃圾视觉分类方法,其特征在于,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,具体方式为:
根据检测得到的各个物体的位置区域,从深度信息中获取各个物体在RGB相机坐标系的点云,所述点云由Nⅹ4矩阵Pc表示,其中N为矩阵行数,即物体点云的三维点数量,每行的四个数分别表示一个三维点的齐次(x,y,z,l)坐标;
根据物体在RGB相机坐标系的点云,计算物体在世界坐标系下的点云:设从各个物体的相机坐标系到世界坐标系的转换矩阵为M,M为4ⅹ4矩阵,设物体在世界坐标系下的点云为Nⅹ4矩阵Pw,则计算公式为:Pw=(M·(Pc)T)T,其中T表示矩阵的转置运算。
5.如权利要求4所述的可回收垃圾视觉分类方法,其特征在于,根据所述各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿,具体包括:
根据所述各物体在世界坐标的点云,计算各物体的初步抓取位姿;
根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿。
6.如权利要求5所述的可回收垃圾视觉分类方法,其特征在于,所述根据所述各物体在世界坐标的点云,计算各物体的初步抓取位姿,具体方式为:
根据物体的世界坐标点云,计算得到物体的初步抓取位姿,初步抓取位姿G由Gx,Gy,Gz,Gα,Gβ,Gθ六个变量表示,其中(Gx,Gy,Gz)表示抓取位姿的空间位置坐标,(Gα,Gβ,Gθ)表示抓取位姿的单位方向向量。
7.如权利要求6所述的可回收垃圾视觉分类方法,其特征在于,根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿,具体方式为:
设传送带的传输速度恒定为V,在x和y方向的速度分别为Vx和Vy,G(T)为根据T时刻获取的RGB图像和深度图像计算得到的初步抓取位姿,则各物体的实时抓取位姿G(t)的计算公式为:
Gx(t)=Gx(T)+Vxⅹ(t-T),
Gy(t)=Gy(T)+Vyⅹ(t-T),
GZ(t)=GZ,Gα(t)=Gα,Gβ(t)=Gβ,Gθ(t)=Gθ。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳蓝胖子机器人有限公司,未经深圳蓝胖子机器人有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911358220.0/1.html,转载请声明来源钻瓜专利网。