[发明专利]基于异构深度网络融合的动态目标抓取姿态快速检测方法有效

专利信息
申请号: 202010420998.6 申请日: 2020-05-18
公开(公告)号: CN111598172B 公开(公告)日: 2023-08-29
发明(设计)人: 张云洲;夏崇坤;王磊;秦操;暴吉宁;陈昕;李奇 申请(专利权)人: 东北大学
主分类号: G06V10/774 分类号: G06V10/774;G06V10/82;B25J9/16;G06N3/0464;G06N3/045;G06N3/08
代理公司: 大连理工大学专利中心 21200 代理人: 陈玲玉
地址: 110819 辽宁*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 深度 网络 融合 动态 目标 抓取 姿态 快速 检测 方法
【权利要求书】:

1.基于异构深度网络融合的动态目标抓取姿态快速检测方法,其特征在于,包括以下步骤:

S1:通过视觉传感器获取目标场景的RGB图像和深度图像;

S2:对所获得的RGB图像进行目标物体标注和抓取边界标注,分别作为目标训练集T1和抓取姿态训练数据集T2

S3:将训练集T1输入I型深度网络,进行迭代训练,当loss函数低于0.5,则训练结束,作为目标识别网络;将训练集T2输入II型深度网络进行迭代训练,当loss函数低于0.1,则训练结束,作为抓取姿态识别网络;所述的I型深度网络为YOLOV3网络、SSD网络、YOLOV4网络、Faster RCNN网络、Mask RCNN网络、RetinaNet网络、DSSD网络中的一种;所述的II型深度网络为ResNet网络、DenseNet网络、DPN网络、SE-Net网络、AOGNet网络中的一种;

S4:在实际测试中,通过视觉传感器连续获取实际场景的RGB图和深度图,将RGB图输入步骤S3获得的目标识别网络,获取目标边界平面坐标[(p1,q1),(p2,q1),(p1,q2),(p2,q2)];同时,将RGB图输入步骤S3获得的抓取姿态识别网络,获取抓取边界坐标集合Tg;其中,第i个抓取边界为[(mi1,ni1),(mi2,ni2),(mi3,ni3),(mi4,ni4)];

S5:根据目标边界平面坐标,利用如下公式计算目标的中心点平面坐标(p0,q0);

S6:根据目标的中心点平面坐标(p0,q0),遍历查找对应的深度图,结合机器人视觉系统的坐标转换关系,从而获取目标中心点的点云坐标(x0,y0,z0),作为目标物体在世界坐标系中的三维坐标;

S7:抓取边界坐标集合Tg,计算所有抓取边界的中心位置集合Cg,其中第i个抓取边界中心点坐标为(ci1,ci2);

S8:根据目标的中心点平面坐标(p0,q0),遍历查找抓取边界的中心位置集合Cg,寻找与目标中心点平面坐标(p0,q0),最近的抓取边界的中心位置;设符合条件的是第i*个抓取边界中心点坐标,对应的抓取边界为[(mi*1,ni*1),(mi*2,ni*2),(mi*3,ni3),(mi*4,ni*4)];通过机器人视觉系统的坐标转换关系,得到符合条件的抓取边界对应的世界坐标为[(Mi*1,Ni*1),(Mi*2,Ni*2),(Mi*3,Ni*3),(Mi*4,Ni*4)];

S9:根据符合条件的第i*个抓取边界的世界坐标,利用如下公式计算获取抓取边界对应的一个方向向量为d=[1,k];

对应的单位方向向量为e=[e1,e2],其计算方式如下:

S10:根据目标物体的点云坐标和抓取边界的单位向量,得到目标物体对应的抓取姿态[x0,y0,z0,e1,e2]。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010420998.6/1.html,转载请声明来源钻瓜专利网。

同类专利
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top