[发明专利]一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法在审
申请号: | 201810268775.5 | 申请日: | 2018-03-29 |
公开(公告)号: | CN108510062A | 公开(公告)日: | 2018-09-07 |
发明(设计)人: | 钱堃;夏晶;刘环;张晓博;马家乐;康栓紧 | 申请(专利权)人: | 东南大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06T7/70 |
代理公司: | 南京众联专利代理有限公司 32206 | 代理人: | 顾进 |
地址: | 210096 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,首先构建位置‑姿态由粗到细的级联式两阶段卷积神经网络模型,第一阶段采用基于区域的全卷积网络(R‑FCN)实现抓取定位以及抓取角度的粗估计,第二阶段通过构造一种新的Angle‑Net模型实现抓取角度精确计算;其次采集当前含待抓物体的场景图像作为待训练的原始现场图像样本,借助迁移学习机制对两阶段卷积神经网络模型进行训练,然后在线运行中将采集的每一帧单目彩色图像输入到级联式两阶段卷积神经网络模型,最后以所得抓取位置和姿态驱动机器人末端执行器进行物体抓取控制。本方法的抓取检测精度高,有效加快了机器人非规则物体抓取位姿的检测速度,提高了抓取姿态检测算法运行的实时性。 | ||
搜索关键词: | 抓取 卷积神经网络 物体抓取 非规则 两阶段 位姿 机器人 快速检测 级联式 级联 采集 末端执行器 驱动机器人 彩色图像 场景图像 模型实现 现场图像 学习机制 在线运行 抓取位置 姿态检测 粗估计 实时性 检测 单目 构建 卷积 算法 样本 迁移 网络 | ||
【主权项】:
1.一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,其特征在于:包括以下步骤:(1)构建位置‑姿态由粗到细的级联式两阶段卷积神经网络模型,第一阶段采用基于区域的全卷积网络实现抓取定位以及抓取角度的粗估计,第二阶段通过构造一种新的Angle‑Net模型实现抓取角度精确计算;(2)控制机器人通过全局俯视的单目彩色相机采集当前含待抓物体的场景图像,作为待训练的原始现场图像样本,借助迁移学习机制对两阶段卷积神经网络模型进行训练,得到具有一定泛化能力的抓取点位置和姿态估计器;(3)在线运行中,将全局俯视相机采集的每一帧单目彩色图像输入到前述步骤建立的级联式两阶段卷积神经网络模型,其中第一阶段输出为抓取位置候选边界框及抓取角度粗估计结果,第二阶段得到以
为分辨率的最终抓取姿态角;(4)以所得抓取位置和姿态驱动机器人末端执行器进行物体抓取控制。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810268775.5/,转载请声明来源钻瓜专利网。