[发明专利]基于异构深度网络融合的动态目标抓取姿态快速检测方法有效
申请号: | 202010420998.6 | 申请日: | 2020-05-18 |
公开(公告)号: | CN111598172B | 公开(公告)日: | 2023-08-29 |
发明(设计)人: | 张云洲;夏崇坤;王磊;秦操;暴吉宁;陈昕;李奇 | 申请(专利权)人: | 东北大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;B25J9/16;G06N3/0464;G06N3/045;G06N3/08 |
代理公司: | 大连理工大学专利中心 21200 | 代理人: | 陈玲玉 |
地址: | 110819 辽宁*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 网络 融合 动态 目标 抓取 姿态 快速 检测 方法 | ||
1.基于异构深度网络融合的动态目标抓取姿态快速检测方法,其特征在于,包括以下步骤:
S1:通过视觉传感器获取目标场景的RGB图像和深度图像;
S2:对所获得的RGB图像进行目标物体标注和抓取边界标注,分别作为目标训练集T1和抓取姿态训练数据集T2;
S3:将训练集T1输入I型深度网络,进行迭代训练,当loss函数低于0.5,则训练结束,作为目标识别网络;将训练集T2输入II型深度网络进行迭代训练,当loss函数低于0.1,则训练结束,作为抓取姿态识别网络;所述的I型深度网络为YOLOV3网络、SSD网络、YOLOV4网络、Faster RCNN网络、Mask RCNN网络、RetinaNet网络、DSSD网络中的一种;所述的II型深度网络为ResNet网络、DenseNet网络、DPN网络、SE-Net网络、AOGNet网络中的一种;
S4:在实际测试中,通过视觉传感器连续获取实际场景的RGB图和深度图,将RGB图输入步骤S3获得的目标识别网络,获取目标边界平面坐标[(p1,q1),(p2,q1),(p1,q2),(p2,q2)];同时,将RGB图输入步骤S3获得的抓取姿态识别网络,获取抓取边界坐标集合Tg;其中,第i个抓取边界为[(mi1,ni1),(mi2,ni2),(mi3,ni3),(mi4,ni4)];
S5:根据目标边界平面坐标,利用如下公式计算目标的中心点平面坐标(p0,q0);
S6:根据目标的中心点平面坐标(p0,q0),遍历查找对应的深度图,结合机器人视觉系统的坐标转换关系,从而获取目标中心点的点云坐标(x0,y0,z0),作为目标物体在世界坐标系中的三维坐标;
S7:抓取边界坐标集合Tg,计算所有抓取边界的中心位置集合Cg,其中第i个抓取边界中心点坐标为(ci1,ci2);
S8:根据目标的中心点平面坐标(p0,q0),遍历查找抓取边界的中心位置集合Cg,寻找与目标中心点平面坐标(p0,q0),最近的抓取边界的中心位置;设符合条件的是第i*个抓取边界中心点坐标,对应的抓取边界为[(mi*1,ni*1),(mi*2,ni*2),(mi*3,ni3),(mi*4,ni*4)];通过机器人视觉系统的坐标转换关系,得到符合条件的抓取边界对应的世界坐标为[(Mi*1,Ni*1),(Mi*2,Ni*2),(Mi*3,Ni*3),(Mi*4,Ni*4)];
S9:根据符合条件的第i*个抓取边界的世界坐标,利用如下公式计算获取抓取边界对应的一个方向向量为d=[1,k];
对应的单位方向向量为e=[e1,e2],其计算方式如下:
S10:根据目标物体的点云坐标和抓取边界的单位向量,得到目标物体对应的抓取姿态[x0,y0,z0,e1,e2]。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010420998.6/1.html,转载请声明来源钻瓜专利网。